Letteratura scientifica selezionata sul tema "Décalage des données"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Décalage des données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Décalage des données"

1

Gras, Michel. "Donner du sens a l'Objet. archéologie, technologie culturelle et anthropologic". Annales. Histoire, Sciences Sociales 55, n. 3 (giugno 2000): 601–14. http://dx.doi.org/10.3406/ahess.2000.279866.

Testo completo
Abstract (sommario):
RésuméLes regards sur l'objet sont multiples mais il y a entre eux un décalage qui tend à s'accroître. Et le « grand public » reçoit des messages qui ne correspondent souvent plus aux questionnements scientifiques actuels. De fortes marges de progression existent sur le plan scientifique : revisiter les objets peut permettre l'acquisition de savoirs nouveaux à condition de ne pas se contenter des traditionnelles lectures typologiques ou esthétiques. Les archéologues ont accumulé depuis des décennies de très nombreuses données qui n'ont que rarement été exploitées par eux ou par les historiens et les anthropologues. Il est temps de leur donner du sens.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Tremblay, Marc. "Vérification de deux méthodes d’estimation indirecte de la mortalité". Articles 12, n. 1 (31 ottobre 2008): 51–82. http://dx.doi.org/10.7202/600490ar.

Testo completo
Abstract (sommario):
RÉSUMÉ L’utilisation de méthodes d’estimation s’avère souvent indispensable pour étudier la mortalité de populations pour lesquelles les données nécessaires sont déficientes. Mais, quelle confiance peut-on accorder à ces méthodes? Jusqu’à quel point sont-elles efficaces et quelles sont les marges d’erreur qu’elles comportent? Le présent article examine deux méthodes d’estimation indirecte de la mortalité : la méthode de Bourgeois-Pichat (estimation de l’espérance de vie à la naissance), et celle utilisée par Bourbeau et Légaré (Bourbeau et Légaré, 1982), qui consiste à estimer, pour une population donnée, certains indices de mortalité du passé en utilisant le décalage (en années de calendrier) observé à une époque récente entre cette population et certaines autres populations (méthode des écarts). Nous appliquons ces méthodes aux données de la Norvège pour la période 1826-1976. Les résultats sont ensuite mis en comparaison avec les données observées pour la même période. À partir de ces applications et comparaisons, nous faisons une évaluation de chacune des méthodes, en faisant ressortir les avantages et les inconvénients qui les caractérisent. Nous mettons toutefois l’accent sur la méthode des écarts, dont l’utilisation par Bourbeau et Légaré est la première du genre pour estimer certains indices de mortalité du passé.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Musard, Mathilde, Maël Le Paven e David Bezeau. "Accéder aux épistémologies pratiques du professeur et des élèves pour comprendre la fabrique du curriculum en actes". Swiss Journal of Educational Research 45, n. 3 (20 dicembre 2023): 346–57. http://dx.doi.org/10.24452/sjer.45.3.10.

Testo completo
Abstract (sommario):
Cette étude vise à documenter les épistémologies pratiques de la·du professeur·e et des élèves dans le cas d’un cycle d’acrosport en classe de terminale afin de mieux comprendre la fabrique du curriculum en actes. Les données d’observation en classe sont croisées avec les données d’entretiens semi-dirigés avec le professeur et les élèves afin d’inférer des éléments d’épistémologie pratique. Les résultats montrent que le professeur et les élèves ont des conceptions différenciées des savoirs à enseigner / à apprendre et des savoirs pour enseigner / pour apprendre. De plus, le suivi de deux groupes d’élèves met en évidence des épistémologies pratiques variées des élèves, qui peuvent être en décalage avec l’épistémologie pratique du professeur.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Stolz, Sophie, François Lefebvre, Yves Bolender e Daniel Kanter. "Perception esthétique de la position verticale des bords libres des incisives latérales maxillaires dans l’arc du sourire". L'Orthodontie Française 88, n. 3 (settembre 2017): 251–61. http://dx.doi.org/10.1051/orthodfr/2017018.

Testo completo
Abstract (sommario):
Introduction : L’objectif de cette étude est d’évaluer la perception esthétique de différents niveaux verticaux des bords libres des incisives latérales maxillaires dans l’arc du sourire. Matériels et méthodes : Une photographie frontale du sourire d’une femme caucasienne a été altérée numériquement pour obtenir une image où les bords libres des incisives latérales maxillaires étaient symétriquement tangents à l’arc du sourire. Ces bords libres ont ensuite été déplacés verticalement par incréments de 0,5 mm. La valeur était considérée positive pour un déplacement en direction occlusale, négative en direction gingivale. Quatre autres images ont ainsi été obtenues en déplaçant les bords libres de +0,5 mm à -1,5 mm. Les cinq images ont été notées sur une échelle visuelle analogique par trois groupes d’évaluateurs : orthodontistes, chirurgiens-dentistes, profanes. Une analyse statistique des données a été réalisée. Résultats : Les profanes ont préféré, dans l’ordre, des incisives latérales tangentes à l’arc du sourire, un décalage de +0,5 mm et enfin un décalage de -0,5 mm. Les orthodontistes et les chirurgiens-dentistes ont préféré, dans l’ordre, un décalage de -0,5 mm, puis un décalage nul. Discussion : L’appréciation esthétique du sourire, concernant les rapports verticaux entre les bords libres des dents antérieures, diffère entre les profanes et les professionnels mais elle est similaire pour les orthodontistes et les chirurgiens-dentistes. La situation la plus consensuelle sur le plan esthétique, tant du point de vue des professionnels que de celui des profanes, est celle qui correspond aux bords libres des incisives latérales tangents à l’arc du sourire.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Bleuse, Aurélie, Hélène Roy, Denis Lebel, Philippe Ovetchkine, Julie Blackburn e Jean-François Bussières. "Exploration de l’association possible entre la consommation d’antibiotiques et l’émergence de résistance dans un centre hospitalier universitaire mère-enfant". Canadian Journal of Hospital Pharmacy 75, n. 3 (4 luglio 2022): 201–9. http://dx.doi.org/10.4212/cjhp.3183.

Testo completo
Abstract (sommario):
Contexte : L’émergence de résistances aux antibiotiques a contribué à créer des bactéries multirésistantes, et ceci constitue une préoccupation majeure. Objectifs : L’objectif principal était d’explorer l’association possible entre la consommation d’antibiotiques et l’émergence de résistance dans un centre hospitalier universitaire mère-enfant. Méthode : Il s’agit d’une étude rétrospective menée dans un centre hospitalier universitaire. Des couples antibiotique-bactérie ont été établis, en tenant compte du nombre d’isolats, de l’utilisation réelle d’antibiotique et de la pertinence clinique des couples. Pour chaque couple, une comparaison de deux variables (consommation d’antibiotiques et pourcentage de résistance) a été quantifiée par un coefficient de Pearson. Trois analyses ont été considérées : sans décalage entre les données d’utilisation et de résistance, décalage d’un an et décalage de deux ans. Résultats : Trente couples ont été sélectionnés en hémato-oncologie et 18 couples en néonatologie. En hémato-oncologie, six couples avaient une corrélation positive (Pearson > 0,7), deux couples impliquant le méropénem, deux la ceftazidime et deux la pipéracilline-tazobactam. Dans trois cas, la corrélation s’observe sans décalage entre les données de consommation et de résistance. En néonatologie, trois couples avaient une corrélation positive, un impliquant la vancomycine, un la cloxacilline et un le méropénem. Conclusions : Il est possible d’explorer l’association qui peut exister entre la consommation d’antibiotiques et l’émergence de résistance dans un centre. L’approche exploratoire reposait sur un traitement manuel des données. Il pourrait être intéressant d’envisager une approche systématique continue permettant la production automatique de corrélations. ABSTRACT Background: The emergence of antibiotic resistance has contributed to the development of multidrug-resistant bacteria, which is a major concern. Objectives: The primary objective was to explore the possible association between antibiotic use and the emergence of resistance in a mother-child university hospital. Method: This retrospective study was conducted in a university hospital centre. Antibiotic-bacteria pairs were established, taking into account the number of isolates, actual antibiotic use, and clinical relevance. For each pair, a comparison of 2 variables (antibiotic utilization and rate of resistance) was quantified with the Pearson coefficient. Three analyses were conducted: no lag between utilization and resistance, 1-year lag, and 2-year lag. Results: Thirty antibiotic-bacteria pairs were selected from hematology-oncology and 18 from neonatology. In hematology-oncology, 6 pairs had a positive correlation (Pearson coefficient > 0.7): 2 pairs involving meropenem, 2 involving ceftazidime, and 2 involving piperacillin-tazobactam. In 3 of these cases, there was no lag between consumption of antibiotics and presence of resistance. In neonatology, 3 antibiotic-bacteria pairs had a positive correlation, 1 each involving vancomycin, cloxacillin, and meropenem. Conclusions: It is possible to explore the potential association between consumption of antibiotics and emergence of resistance in a particular centre. Our exploratory approach was based on manual data processing. It would be interesting to consider a continuous systematic approach, allowing automatic generation of correlations.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Porcherie, Marion, Emmanuelle Faure, Clément Bader, Anne Roué Le Gall, Stéphane Rican, Zoe Heritage, Zoé Vaillant et al. "Temporalités et appropriations des connaissances dans une démarche de recherche partenariale : les décalages à l’œuvre dans le projet GREENH-City". Global Health Promotion 28, n. 1_suppl (marzo 2021): 31–38. http://dx.doi.org/10.1177/1757975920978287.

Testo completo
Abstract (sommario):
Cet article interroge les effets des modalités partenariales de recherche du projet GREENH-City associant des chercheur.e.s au Réseau français des Villes-Santé OMS (RfVS). Il propose une analyse de l’appropriation des connaissances scientifiques liées au projet par les villes membres du RfVS à partir du modèle de partage de connaissances. L’article montre qu’un décalage temporel peut s’opérer entre la production et l’utilisation des données liées au projet et interroge les modalités de partage de connaissances comme les pratiques de cette recherche interventionnelle.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Bugnard, Pierre-philippe. "Tradition, médiatisation et mesure de l'efficacité scolaire – Brève histoire immédiate de l'évaluation des systèmes éducatifs". Diversité 169, n. 1 (2012): 45–50. http://dx.doi.org/10.3406/diver.2012.3587.

Testo completo
Abstract (sommario):
Nos systèmes éducatifs français ou suisses seraient-ils sclérosés et sous performants en comparaison avec ses voisins ? Sont-ils en décalage ou en opposition avec les autres pays de l’OCDE comparés dans le cadre des études PISA ? Pas si sûr, si on prend la peine de regarder de données de près. En revanche, la réception des résultats est devenue un enjeu politique tel qu’elle peut remettre en cause un certain nombre de travaux et de pratiques éprouvées. Vérité en deçà de PISA, erreur au-delà ?
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Idrissou, Yaya, Alassan Assani Seidou, Fréjus Mahougnon Tossou, Hilaire Sorébou Sanni Worogo, Mohamed Nasser Baco, Josias Steve Adjassin, Brice Gérard Comlan Assogba e Ibrahim Alkoiret Traore. "Perception du changement climatique par les éleveurs de bovins des zones tropicales sèche et subhumide du Bénin : comparaison avec les données météorologiques". Cahiers Agricultures 29 (2020): 1. http://dx.doi.org/10.1051/cagri/2019032.

Testo completo
Abstract (sommario):
Une fausse perception du changement climatique peut entraîner une absence d’adaptation ou une mauvaise adaptation, augmentant ainsi la vulnérabilité à ce changement. Cependant très peu d’études se sont intéressées à cette question, surtout chez les éleveurs. Cette étude compare la perception du changement climatique des éleveurs de bovins des zones tropicales sèche et subhumide du Bénin avec les données climatiques des 40 dernières années. À cet effet, 360 éleveurs de bovins ont été interrogés dans ces zones. Les données collectées sont relatives aux caractéristiques sociodémographiques des éleveurs, ainsi qu’à leur perception du changement climatique. Les données climatiques couvrant la période 1976–2015 ont été collectées dans les stations météorologiques les plus proches de chaque zone d’étude. Les données d’enquête ont été soumises aux analyses fréquentielles et les données climatiques aux anomalies standardisées. Les résultats montrent que plus de 70 % des éleveurs des deux zones d’étude ont perçu une installation plus tardive de la saison pluvieuse, ainsi qu’une augmentation de la température et de la durée des poches de sécheresse, ce qui correspond aux données climatiques. Par contre, il existe un décalage entre les données climatiques et les perceptions des éleveurs, pour lesquels la pluviométrie aurait diminué et la saison des pluies se terminerait plus tôt. Cette étude permet de conclure que l’intégration d’indicateurs du changement perçus par les éleveurs serait pertinente pour élaborer des stratégies d’adaptation au changement climatique appropriées, consensuelles et durables, en facilitant la compréhension et la concertation entre éleveurs et scientifiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Spaulding, C. "Indications et heure de la coronarographie après un arrêt cardiaque extrahospitalier sans cause extracardiaque évidente". Médecine Intensive Réanimation 28, n. 2 (18 novembre 2018): 90–95. http://dx.doi.org/10.3166/rea-2018-0071.

Testo completo
Abstract (sommario):
Les lésions coronaires instables sont la première cause des arrêts cardiaques extrahospitaliers. L’angioplastie coronaire semble améliorer la survie de ces patients. En l’absence de données randomisées, les recommandations actuelles sont fondées sur des données de registre. Une coronarographie immédiate, dès l’admission du patient, est recommandée s’il existe un sus-décalage du segment ST sur l’électrocardiogramme réalisé après retour d’une activité circulatoire spontanée. Dans les autres cas, il est conseillé de rechercher en premier une cause extracardiaque, notamment par la réalisation d’un scanner cérébral et thoracique. Si aucune cause extracardiaque n’a été retrouvée, la coronarographie doit être réalisée rapidement, moins de deux heures après l’admission. Si une lésion coronaire responsable de l’arrêt peut être identifiée, une angioplastie est réalisée au mieux par voie radiale et en utilisant des endoprothèses actives. Une nouvelle coronarographie à distance peut être indiquée chez les survivants pour réaliser une revascularisation complémentaire ou pour rechercher un spasme coronaire chez les patients dont la première coronarographie était normale.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Jacob1, Steve. "Opération chloroforme ou la réinvention de l’État rationnel : l’évaluation et les données probantes". Criminologie 42, n. 1 (30 aprile 2009): 201–23. http://dx.doi.org/10.7202/029813ar.

Testo completo
Abstract (sommario):
Résumé L’évaluation de politiques ou de programmes s’est enracinée dans les pratiques de la gestion publique contemporaine. Dans le présent article, nous décrivons les multiples finalités poursuivies par l’évaluation (ex. : production d’information, amélioration des programmes, alimentation du débat démocratique) et les principaux débats qui animent la communauté des évaluateurs. Parmi ces débats, celui sur le courant de la décision fondée sur des données probantes est l’un des plus récents et des plus vifs. Les principales tensions portent sur la hiérarchisation des connaissances évaluatives, l’utilisation contrainte des connaissances et la volonté d’homogénéiser la pratique évaluative. En observant ces développements, nous constatons également une résurgence de la rationalisation des processus de prise de décisions et des principes de gestion publique qui semblent être en décalage avec les aspirations de la population à plus de participation et de transparence. Dans le présent article, nous présentons également les défis auxquels sont confrontés les décideurs et les gestionnaires publiques face à la réinvention de l’État rationnel.
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Décalage des données"

1

Betta, Mohammed. "Les données évolutives et le décalage : l'analyse statique et l'analyse dynamique". Rennes 2, 1995. http://www.theses.fr/1995REN20010.

Testo completo
Abstract (sommario):
L'objet de cette thèse est l'analyse des tableaux de donnes à trois indices (voies). On s'intéresse particulièrement à l'analyse de telles données dans le cas ou le troisième indice désigne le temps. Dans la première partie de ce travail, nous présentons quelques unes des méthodes d'analyse des données ternaires. Nous consacrons un chapitre à celles qui intègrent dans leurs approches une structure de contiguïté quelconque. Dans la deuxième partie, nous proposons et développons une nouvelle méthode d'analyse de données évolutives sous contrainte de continuité temporelle. Cette méthode est élaborée en deux étapes indépendantes et complémentaires. Elle est caractérisée par la prise en compte de la structure d'ordre du facteur temps. Nous introduisons et justifions, dans la première étape, la notion de matrice de décalage à gauche ou à droite sur les données. Cette nouvelle notion nous permet de définir une famille d'indices de similarités sur l'ensemble des tableaux "individuels" fournissant ainsi une typologie des individus. C'est ce que l'on appelle analyse statique. Dans la deuxième étape, nous suggérons un nouveau critère qui permet de déterminer le sous-espace de représentation des "parcours individuels" à l'aide des trajectoires. Ce critère est aussi défini de manière à tenir compte de la structure d'ordre du temps, autrement dit la contiguïté temporelle. C'est l'analyse dynamique. Nous concluons cette thèse par le traitement de deux exemples de données évolutives avec notre approche d'une part, et la méthode Statis d'autre part. Enfin, une comparaison des résultats des deux méthodes est proposée
The objective of this thesis is to analyse three index data tables. We are especially interested in the analysis of these data in the case where the third index indicates time. In the first part of this study, we present some of methods used for anlysing three way data. One chapter will be given over to all those that incorporate contiguity structure in their approach. In the second part, we develop a new method of evolutive data analysis under a temporal contiguity constraint. This method is elaborated in two indepedent and complementary steps. First, we introduce the notion of an interval matrix on the left or the right which is used to define a group of similarity indices on individual tables. This is known as static analysis in the second stage, we suggest a new critiria which allows us to determine the subspace where trajectories are represented. This critiria is also defined taking the order structure of time into considerations. We call this dynamic analysis. This thesis concludes by anamysing two examples of evolutive data using two methods, the one we developed and the statis method. A comparison of the obtained results using the two methods is given
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Pipien, Sarah. "A la recherche de quasars à grand décalage spectral dans le sondage CFHQSIR". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0376/document.

Testo completo
Abstract (sommario):
J'ai consacré mon travail de thèse à la recherche de quasars à haut redshift dans le sondage Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). L'objectif principal de ce programme est de découvrir des quasars de redshift de l'ordre de z $\sim$ 7 dans les champs larges du CFHTLS (CFHTLS Wide) en utilisant des images réalisées dans le proche infrarouge avec la caméra WIRCam installée au foyer du CFHT. J'ai tout d'abord effectué la calibration photométrique de l'ensemble des données de CFHQSIR. J'ai ensuite étudié la qualité des images ainsi que leur propriété de bruit et leur profondeur. J'ai dans un deuxième temps calculé le nombre de quasars qu'il serait possible de détecter avec CFHQSIR et en ai déduit les contraintes envisageables sur la fonction de luminosité des quasars à z $\sim$ 7. J'ai ensuite procédé à l'identification de candidats quasars parmi les dizaines de milliers de sources que comptent les 130 degrés carrés couvert par CFHQSIR. Des observations de suivi photométriques des candidats ont finalement permis de révéler une cinquantaine d’objets, dont une quinzaine a été sélectionnée pour des observations spectroscopiques au Very Large Telescope (VLT). Celles-ci n’ayant, pour la plupart, pas encore été realisées, la nature exacte de ces sources ne pourra être connue que dans les prochains mois. Pour finir, la dernière partie de ma thèse s’est focalisée sur l’étude de modèles statistiques bayésiens afin de compléter ma méthode de sélection de candidats quasars. Cette étude m'a finalement permis de vérifier que la majorité des objets retenus pour des observations spectroscopiques étaient effectivement les candidats les plus probables
My PhD work is focused on the search for high-redshift quasars in the Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). The main scientific objective of this CFHT Large Program is to search for quasars at redshift z $\sim$ 7 with near-infrared images of the CFHTLS Wide fields acquired with the CFHT WIRCam camera. Firstly, I carried out the photometric calibration of the CFHQSIR images. I performed a detailed analysis of the CFHQSIR data by studying their quality, as well as their noise properties and their depths.Secondly, I computed the number of high-redshift quasars that could be detected with CFHQSIR and the corresponding constraints which could be put on the z $\sim$ 7 quasar luminosity function. Then, I proceeded to the identification of quasar candidates among the many thousands of sources in the 130 square degrees covered by CFHQSIR. Photometric follow-up observations of the candidates revealed about fifty objects, of which fifteen were chosen to be spectroscopically observed with the Very Large Telescope (VLT). Given that this spectroscopic follow-up is not yet completed, the exact nature of these sources will only be known in the coming months. To finish, I applied Bayesian model comparison to my sample in order to complete and consolidate my selection procedure. My candidates were finally classified according to their probability to be a high-redshift quasar. I verified that the majority of the most likely candidates were selected for spectroscopic observations
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Gogolashvili, Davit. "Global and local Kernel methods for dataset shift, scalable inference and optimization". Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS363v2.pdf.

Testo completo
Abstract (sommario):
Dans de nombreux problèmes du monde réel, les données de formation et les données de test ont des distributions différentes. Cette situation est communément appelée " décalage de l'ensemble de données ". Les paramètres les plus courants pour le décalage des ensembles de données souvent considérés dans la littérature sont le décalage des covariables et le décalage des cibles. Dans cette thèse, nous étudions les modèles nonparamétriques appliqués au scénario de changement d'ensemble de données. Nous développons un nouveau cadre pour accélérer la régression par processus gaussien. En particulier, nous considérons des noyaux de localisation à chaque point de données pour réduire les contributions des autres points de données éloignés, et nous dérivons le modèle GPR découlant de l'application de cette opération de localisation. Grâce à une série d'expériences, nous démontrons la performance compétitive de l'approche proposée par rapport au GPR complet, à d'autres modèles localisés et aux processus gaussiens profonds. De manière cruciale, ces performances sont obtenues avec des accélérations considérables par rapport au GPR global standard en raison de l'effet de sparsification de la matrice de Gram induit par l'opération de localisation. Nous proposons une nouvelle méthode pour estimer le minimiseur et la valeur minimale d'une fonction de régression lisse et fortement convexe à partir d'observations contaminées par du bruit aléatoire
In many real world problems, the training data and test data have different distributions. The most common settings for dataset shift often considered in the literature are covariate shift and target shift. In this thesis, we investigate nonparametric models applied to the dataset shift scenario. We develop a novel framework to accelerate Gaussian process regression. In particular, we consider localization kernels at each data point to down-weigh the contributions from other data points that are far away, and we derive the GPR model stemming from the application of such localization operation. We propose a new method for estimating the minimizer and the minimum value of a smooth and strongly convex regression function from the observations contaminated by random noise
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Danilo, Céline. "Évaluation des courants de surface océanique au moyen d’un radar à ouverture synthétique". Brest, 2009. http://www.theses.fr/2009BRES2023.

Testo completo
Abstract (sommario):
L’objectif de cette thèse est d’extraire la composante du courant de surface océanique dans l’axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d’ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d’ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu’à étendre cette analyse à de larges scènes observées sous de multiples angles d’incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s’appuie sur l’hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d’estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d’une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d’onde relativement courtes typiques de la mer du vent. L’utilisation pratique de l’information de vent à 10 m de la surface pour estimer la contribution des vagues est évaluée. La méthode d’extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d’incidence constant de 23° à partir d’imagettes ponctuelles réparties sur l’ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des Images de grande taille (400 km par 400 km au minimum) pour lesquelles l’angle d’incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l’effet de l’angle d’incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l’angle d’incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ, Ce résultat est encourageant pour le développement d’une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l’existence de courant côtier fortement variable ne permet plus de faire l’hypothèse de courant uniforme sur la surface d’estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l’ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images CAR pour restituer une information de courant de surface à haute résolution
The aim of this thesis is to extract the radar line-of-sight component of sea surface current from the Doppler shift of a signal received by a synthetic aperture radar on board of ENVISAT. The primary goals of this work are the separation of waves and surface current components to this Doppler shift and, furthermore, the expansion of this analysis to multiple angles of incidence, thereby making it possible to map sea surface currents. This study is limited to vertical polarization and to the radar frequency hand C. Extraction of current signature is based on the assumption that the Doppler shift is caused solely by surface gravity waves and by surface current. Moreover, we initially assume that the current is uniform within the surface of Doppler shift estimation. Under these assumptions, the current component can be deduced from the Doppler shift by substracting the wave component. The latter have relatively short wavelengths, which is typical of wind-sea. Practical use of 10 m wind information for the estimation of waves component is evaluated. A method for extracting surface current information is developed and tested, initially for a constant incidence angle of 23°, on small-sized and isolated ocean images from all over the oceans. A comparison of the monthly average speeds, obtained by on-site current measurements, indicates an RMS error of 0. 35 m/s. As a further step, the same methodology is applied for larger acquisitions (400 km by 400 km minimum) for which the incidence angle ranges from 16 to 42°, This new configuration requires a preliminary analysis of the effect of incidence angle variation on the Doppler shift. We show that an increase of the angle of incidence results in the increase of the relative component of surface current to the Doppler shift, and that the latter also varies according to the direction of wind with respect to the direction of the radar. The estimated surface current component shows a good quantitative correspondence with the same component measured by on-site sensors. This result is encouraging in view of the development of a more systematic technique. Finally, the last part of this work is devoted to a more complex case, namely that of coastal current: here, the hypothesis of a uniform surface current within the estimation surface cannot be maintained anymore due to the great variability of these currents. In this case, we proceed by analyzing maps of Doppler shift of a 1 km resolution. Despite the complexity of this situation, once again, the comparison between Doppler shift-derived velocities and data from tidal current maps indicates a strong potential of SAR images to return high resolution information on surface currents
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Machado, Daniel. "Improving automated redshift detection in the low signal-to-noise regime for Large Sky Surveys". Thesis, Paris 11, 2015. http://www.theses.fr/2014PA112427.

Testo completo
Abstract (sommario):
Le décalage vers le rouge est la principale mesure par laquelle les astronomes peuvent cartographier l’Univers dans la direction radiale. Afin de tester les hypothèses d’homogénéité et d’isotropie, il est nécessaire de mesurer avec precision le décalage vers le rouge d’un grand nombre de galaxies. De plus, différents modèles cosmologiques ne peuvent être distingués qu’au travers d’une analyse précise des structures à grandes échelles tracées par ces galaxies. Pour obtenir un grand nombre de ces mesures, il est nécessaire de mener d'importantes campagnes d’observations pour établir des relevés couvrant une large portion du ciel. Ces mesures trouvent aussi d’autres applications en astronomie comme par exemple l’analyse du cisaillement gravitationnel, la calibration des mesures photométriques, l’étude des halos de matière noire, de la morphologie des galaxies, des structures à grandes échelles et de la distribution des galaxies.Dans tous les relevés de galaxies, les mesures les plus problématiques sont pour les objets de plus faible luminosité, où le bruit instrumental devient gênant, et qui se trouvent être en général les objets les plus lointains. Pour ces objets, les mesures de décalages vers le rouge peuvent souvent devenir imprécise et, la plupart du temps, elles sont simplement exclues de l’analyse en appliquant des coupures en magnitudes ou en rapport signal à bruit. Cette procédure est une méthode brutale pour séparer les mesures probablement imprécises des mesures fiables.Dans cette thèse, nous développons un algorithme permettant la mesure du décalage vers le rouge des spectres de galaxies dans le regime de faible rapport signal à bruit. La première partie de cette thèse présente les différents concepts relatifs à l’estimation du décalage vers le rouge et au débruitrage de signaux par transformation en ondelettes et filtrage par taux de fausse détection (False Detection Rate, FDR en anglais). La seconde partie détaille comment ces concepts sont mis à contribution dans l’élaboration de l’algorithme Darth Fader (Denoised and Automatic Redshifts THresholded with a False DEtection Rate). Enfin, la dernière partie présente l’application de cet algorithme à des données synthétiques générées à partir du COSMOS Mock Catalogue, mais aussi sur des données réelles tirées du relevé WiggleZ.Nous montrons que Darth Fader fonctionne efficacement à bas rapport signal à bruit étant donné un choix approprié du taux de fausse détection et d’un critère de comptage de traits caractéristiques judicieux. Nous montrons aussi que Darth Fader permet d’éliminer le continuum des spectres à bas rapport signal à bruit, ce qui rend possible l’estimation du décalage vers le rouge par corrélation croisée. Enfin, nous montrons sur des spectres de test issues du relevé WiggleZ que notre algorithme est capable d’analyser une part importante du relevé de façon autonome avec une haute précision, sans nécessiter d'inspection visuelle (alors que les données WiggleZ ont à l’origine été entièrement soumises à l’inspection visuelle). En conclusion, Darth Fader est un algorithme prometteur pour l’analyse des grands relevés de galaxies, en particulier pour exploiter les objets à faible rapport signal à bruit qui sont habituellement simplement ignorés
Summary: Redshift is the primary measure by which astronomers can map the Universe in the radial direction. In order to test the assumptions of homogeneity and isotropy, accurate redshifts of galaxies are needed, and for a great many of them. Additionally different cosmological models can only be distinguished by careful observations of the large scale structure traced by these galaxies. Large sky surveys are the only mechanism by which redshifts for a large number of galaxies can be obtained. Accurate redshift estimation is additionally required for many other fields of astronomy including but not limited to: weak lensing, studies of dark matter haloes, galaxy morphology studies, chemical evolution studies, photometric calibration, and studies of large scale structure and galaxy clustering.Problems exist in all surveys at the dim limit of observation, which usually corresponds to the higher redshift objects in the survey, where noise becomes problematic. Magnitude or signal-to-noise ratio cuts are often employed in order to eliminate potentially troublesome objects; such a procedure is a blunt tool for separating good redshift candidates from ones likely to be inaccurate.In this thesis we develop an algorithm to tackle redshift estimation of galaxy spectra in the low signal-to-noise regime. The first part of this thesis introduces the concepts of denoising, particularly False Detection Rate denoising, wavelet transforms and redshift estimation algorithms. The second part details how these concepts are united into the Darth Fader (Denoised and Automatic Redshifts THresholded with a FAlse DEtection Rate) algorithm. The final parts of this thesis apply the algorithm both to idealised synthetic data generated from the COSMOS Mock Catalogue, and to a subset of real data from the WiggleZ survey.We show that Darth Fader can operate effectively at low signal-to-noise given an appropriate choice of FDR parameter for denoising, and an appropriate feature-counting criterion. We also show that Darth Fader can remove the continua of spectra effectively at low signal-to-noise for the purposes of redshift estimation by cross-correlation. Additionally we show from tests on spectra from the WiggleZ survey that our algorithm has the ability to process a substantial subset of that data without the need for visual inspection (to which the entire WiggleZ spectral survey has been subjected), and to a high degree of accuracy. We conclude that the Darth Fader algorithm has potential to be used in large-sky survey pipelines, particularly where signal-to-noise is expected to be poor
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Nodet, Pierre. "Biquality learning : from weakly supervised learning to distribution shifts". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG030.

Testo completo
Abstract (sommario):
Le domaine de l'apprentissage avec des faiblesses en supervision est appelé apprentissage faiblement supervisé et regroupe une variété de situations où la vérité terrain collectée est imparfaite. Les étiquettes collectées peuvent souffrir de mauvaise qualité, de non-adaptabilité ou de quantité insuffisante. Dans ce mémoire nous proposons une nouvelle taxonomie de l'apprentissage faiblement supervisé sous la forme d'un cube continu appelé le cube de la supervision faible qui englobe toutes les faiblesses en supervision. Pour concevoir des algorithmes capables de gérer toutes supervisions faibles, nous supposons la disponibilité d'un petit ensemble de données de confiance, sans biais ni corruption, en plus de l'ensemble de données potentiellement corrompu. L'ensemble de données de confiance permet de définir un cadre de travail formel appelé apprentissage biqualité. Nous avons examiné l'état de l'art de ces algorithmes qui supposent la disponibilité d'un petit jeu de données de confiance. Dans ce cadre, nous proposons un algorithme basé sur la repondération préférentielle pour l'apprentissage biqualité (IRBL). Cette approche agnostique du classificateur est basée sur l'estimation empirique de la dérivée de Radon-Nikodym (RND), pour apprendre un estimateur conforme au risque sur des données non fiables repesées. Nous étendrons ensuite le cadre proposé aux décalages de jeu de données. Les décalages de jeu de données se produisent lorsque la distribution des données observée au moment de l'apprentissage est différente de celle attendue au moment de la prédiction. Nous proposons alors une version améliorée d'IRBL, appelée IRBL2, capable de gérer de tels décalages de jeux de données. Nous proposons aussi KPDR basé sur le même fondement théorique mais axé sur le décalage de covariable plutôt que le bruit des étiquettes. Pour diffuser et démocratiser le cadre de l'apprentissage biqualité, nous rendons ouvert le code source d'une bibliothèque Python à la Scikit-Learn pour l'apprentissage biqualité : biquality-learn
The field of Learning with weak supervision is called Weakly Supervised Learning and aggregates a variety of situations where the collected ground truth is imperfect. The collected labels may suffer from bad quality, non-adaptability, or insufficient quantity. In this report, we propose a novel taxonomy of Weakly Supervised Learning as a continuous cube called the Weak Supervision Cube that encompasses all of the weaknesses of supervision. To design algorithms capable of handling any weak supervisions, we suppose the availability of a small trusted dataset, without bias and corruption, in addition to the potentially corrupted dataset. The trusted dataset allows the definition of a generic learning framework named Biquality Learning. We review the state-of-the-art of these algorithms that assumed the availability of a small trusted dataset. Under this framework, we propose an algorithm based on Importance Reweighting for Biquality Learning (IRBL). This classifier-agnostic approach is based on the empirical estimation of the Radon-Nikodym derivative (RND), to build a risk-consistent estimator on reweighted untrusted data. Then we extend the proposed framework to dataset shifts. Dataset shifts happen when the data distribution observed at training time is different from what is expected from the data distribution at testing time. So we propose an improved version of IRBL named IRBL2, capable of handling such dataset shifts. Additionally, we propose another algorithm named KPDR based on the same theory but focused on covariate shift instead of the label noise formulation. To diffuse and democratize the Biquality Learning Framework, we release an open-source Python library à la Scikit-Learn for Biquality Learning named biquality-learn
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Danilo, Céline. "Évaluation des courants de surface océanique au moyen d'un radar à ouverture synthétique". Phd thesis, Université de Bretagne occidentale - Brest, 2009. http://tel.archives-ouvertes.fr/tel-00560597.

Testo completo
Abstract (sommario):
L'objectif de cette thèse est d'extraire la composante du courant de surface océanique dans l'axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d'ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d'ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu'à étendre cette analyse à de larges scènes observées sous de multiples angles d'incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s'appuie sur l'hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d'estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d'une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d'onde relativement courtes typiques de la mer du vent. L'utilisation pratique de l'information de vent à 10~m de la surface pour estimer la contribution des vagues est évaluée. La méthode d'extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d'incidence constant de 23° à partir d'imagettes ponctuelles réparties sur l'ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des images de grande taille (400 km par 400 km au minimum) pour lesquelles l'angle d'incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l'effet de l'angle d'incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l'angle d'incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ. Ce résultat est encourageant pour le développement d'une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l'existence de courant côtier fortement variable ne permet plus de faire l'hypothèse de courant uniforme sur la surface d'estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l'ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images SAR pour restituer une information de courant de surface à haute résolution.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Ouji, Karima. "Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide". Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00923192.

Testo completo
Abstract (sommario):
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Abecidan, Rony. "Stratégies d'apprentissage robustes pour la détection de manipulation d'images". Electronic Thesis or Diss., Centrale Lille Institut, 2024. http://www.theses.fr/2024CLIL0025.

Testo completo
Abstract (sommario):
Aujourd'hui, la manipulation d'images à des fins non éthiques est courante, notamment sur les réseaux sociaux et dans la publicité. Les utilisateurs malveillants peuvent par exemple créer des images synthétiques convaincantes pour tromper le public ou dissimuler des messages dans des images numériques, posant des risques pour la sécurité nationale. Les chercheurs en analyse forensique d'image travaillent donc avec les forces de l'ordre pour détecter ces manipulations. Les méthodes d'analyse forensique les plus avancées utilisent notamment des réseaux neuronaux convolutifs pour les détecter. Cependant, ces réseaux sont entraînés sur des données préparées par des équipes de recherche, qui diffèrent largement des données réelles rencontrées en pratique. Cet écart réduit considérablement l'efficacité opérationnelle des détecteurs de manipulations d'images. Cette thèse vise précisément à améliorer l'efficacité des détecteurs de manipulation d'images dans un contexte pratique, en atténuant l'impact de ce décalage de données. Deux stratégies complémentaires sont explorées, toutes deux issues de la littérature en apprentissage automatique : 1. Créer des modèles capables d'apprendre à généraliser sur de nouvelles bases de données ou 2. Sélectionner, voire construire, des bases d'entraînement représentatives des images à examiner. Pour détecter des manipulations sur un grand nombre d'images non étiquetées, les stratégies d'adaptation de domaine cherchant à plonger les distributions d'entraînement et d'évaluation dans un espace latent où elles coïncident peuvent se révéler utiles. Néanmoins, on ne peut nier la faible efficacité opérationnelle de ces stratégies, étant donné qu'elles supposent un équilibre irréaliste entre images vraies et manipulées parmi les images à examiner. En plus de cette hypothèse problématique, les travaux de cette thèse montrent que ces stratégies ne fonctionnent que si la base d'entraînement guidant la détection est suffisamment proche de la base d'images sur laquelle on cherche à évaluer, une condition difficile à garantir pour un praticien. Généraliser sur un petit nombre d'images non étiquetées est encore plus difficile bien que plus réaliste. Dans la seconde partie de cette thèse, nous abordons ce scénario en examinant l'influence des opérations de développement d'images traditionnelles sur le phénomène de décalage de données en détection de manipulation d'images. Cela nous permet de formuler des stratégies pour sélectionner ou créer des bases d'entraînement adaptées à un petit nombre d'images. Notre contribution finale est une méthodologie qui exploite les propriétés statistiques des images pour construire des ensembles d'entraînement pertinents vis-à-vis des images à examiner. Cette approche réduit considérablement le problème du décalage de données et permet aux praticiens de développer des modèles sur mesure pour leur situation
Today, it is easier than ever to manipulate images for unethical purposes. This practice is therefore increasingly prevalent in social networks and advertising. Malicious users can for instance generate convincing deep fakes in a few seconds to lure a naive public. Alternatively, they can also communicate secretly hidding illegal information into images. Such abilities raise significant security concerns regarding misinformation and clandestine communications. The Forensics community thus actively collaborates with Law Enforcement Agencies worldwide to detect image manipulations. The most effective methodologies for image forensics rely heavily on convolutional neural networks meticulously trained on controlled databases. These databases are actually curated by researchers to serve specific purposes, resulting in a great disparity from the real-world datasets encountered by forensic practitioners. This data shift addresses a clear challenge for practitioners, hindering the effectiveness of standardized forensics models when applied in practical situations.Through this thesis, we aim to improve the efficiency of forensics models in practical settings, designing strategies to mitigate the impact of data shift. It starts by exploring literature on out-of-distribution generalization to find existing strategies already helping practitioners to make efficient forensic detectors in practice. Two main frameworks notably hold promise: the implementation of models inherently able to learn how to generalize on images coming from a new database, or the construction of a representative training base allowing forensics models to generalize effectively on scrutinized images. Both frameworks are covered in this manuscript. When faced with many unlabeled images to examine, domain adaptation strategies matching training and testing bases in latent spaces are designed to mitigate data shifts encountered by practitioners. Unfortunately, these strategies often fail in practice despite their theoretical efficiency, because they assume that scrutinized images are balanced, an assumption unrealistic for forensic analysts, as suspects might be for instance entirely innocent. Additionally, such strategies are tested typically assuming that an appropriate training set has been chosen from the beginning, to facilitate adaptation on the new distribution. Trying to generalize on a few images is more realistic but much more difficult by essence. We precisely deal with this scenario in the second part of this thesis, gaining a deeper understanding of data shifts in digital image forensics. Exploring the influence of traditional processing operations on the statistical properties of developed images, we formulate several strategies to select or create training databases relevant for a small amount of images under scrutiny. Our final contribution is a framework leveraging statistical properties of images to build relevant training sets for any testing set in image manipulation detection. This approach improves by far the generalization of classical steganalysis detectors on practical sets encountered by forensic analyst and can be extended to other forensic contexts
Gli stili APA, Harvard, Vancouver, ISO e altri

Libri sul tema "Décalage des données"

1

Jet lag and travel: A specialized bibliography from the SPORT database = Voyages et problèmes liés au décalage horaire : une bibliographie specialisée de la base de données SPORT. Gloucester, Ont: Sport Information Research Centre, 1991.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Décalage des données"

1

LEINSS, Silvan, Shiyi LI, Yajing YAN e Bas ALTENA. "Mesure de déplacement par corrélation d’images SAR". In Mesure du déplacement de surface à partir d’images de télédétection, 73–104. ISTE Group, 2024. https://doi.org/10.51926/iste.9083.ch3.

Testo completo
Abstract (sommario):
Ce chapitre présente diverses méthodes de suivi des décalages à l’aide de l’imagerie radar à synthèse d’ouverture (SAR). Il commence par une brève introduction à la géométrie d’acquisition et aux caractéristiques de l’imagerie SAR, y compris une description du chatoiement radar. Les équations pour le suivi du décalage dans le domaine spatial et dans le domaine fréquentiel sont développées et expliquées. Le rapport signal/bruit et les paramètres de corrélation croisée sont donnés. Les méthodes de suivi de la cohérence, de suivi du chatoiement et de suivi de l’intensité sont expliquées et différenciées. Le chapitre comprend une description de deux méthodes de suivi avancées. Ces méthodes utilisent des séries temporelles d’images SAR pour rendre le suivi du décalage plus robuste contre la décorrélation, le chatoiement radar et le bruit, et pour améliorer la résolution spatiale des mesures de décalage. Le chapitre se termine par la fusion des mesures de déplacement provenant de différentes géométries d’observation en cartes de déplacement tridimensionnel.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

DEHECQ, Amaury, Bas ALTENA, Alex S. GARDNER, Emmanuel TROUVÉ e Silvan LEINSS. "Mesure de l’écoulement des glaciers par imagerie satellitaire". In Mesure du déplacement de surface à partir d’images de télédétection, 381–418. ISTE Group, 2024. https://doi.org/10.51926/iste.9083.ch11.

Testo completo
Abstract (sommario):
Ce chapitre se concentre sur l’observation de l’écoulement des glaciers (inlandsis, calottes glaciaires, glaciers de vallée) par la méthode du suivi des décalages dans des séries temporelles d’images satellitaires. L’observation de l’écoulement de la glace est importante pour comprendre la dynamique des glaciers, leur réponse au changement climatique et leur évolution future. Cependant, de nombreuses caractéristiques des glaciers, telles que le manque de contraste de l’image ou l’évolution rapide des propriétés de la surface, rendent difficile la mesure du déplacement de la surface par télédétection. Ce chapitre met d’abord en évidence les principales caractéristiques de l’écoulement glaciaire, par rapport à d’autres mouvements géophysiques. Il décrit ensuite les méthodologies spécifiquement développées pour mesurer l’écoulement de la glace à partir d’images de télédétection. Enfin, il donne un aperçu des progrès glaciologiques rendus possibles par la télédétection et des perspectives d’avenir.
Gli stili APA, Harvard, Vancouver, ISO e altri

Rapporti di organizzazioni sul tema "Décalage des données"

1

Fibbi, Rosita, Leonie Mugglin, Lisa Iannello, Andrea Bregoli, Philippe Wanner, Didier Ruedin, Denise Efionayi-Mäder e Marta Marques. « Que des locataires ! » : participation politique des résident·e·s espagnols et portugais à Genève et Neuchâtel. Université de Neuchâtel - Swiss Forum for Migration and Population Studies (SFM), 2023. http://dx.doi.org/10.35662/unine-sfmstudies-83.

Testo completo
Abstract (sommario):
Les cantons de Neuchâtel et Genève ont fait de l’inclusion politique de personnes étrangères un axe majeur de leurs politiques d’intégration. Neuchâtel a été le premier canton à octroyer le droit de vote communal pour les résident·e·s étrangers en 1849 ; en 2000, avec la nouvelle Constitution, il a accordé le droit de vote cantonal aux étranger·ère·s au bénéfice d’un permis d’établissement, domiciliés dans le canton depuis 5 ans et, successivement, en 2007 le droit d’éligibilité au niveau communal. Genève a été le premier canton à accepter en votation populaire en 2005 l’introduction du droit de vote communal (sans l’éligibilité) aux étranger·ère·s résidant légalement en Suisse depuis 8 ans. La participation électorale de la population étrangère est inférieure à celle des autochtones en Suisse à l’instar des autres pays ayant accordé des droits politiques au niveau local aux résident⸱e⸱s étrangers. L’âge, le niveau de formation et la condition socio-économique, ainsi que la connaissance du système politique, expliquent dans une large mesure ce décalage dans la participation électorale. La recherche montre également que des lois électorales inclusives permettant aux résident·e·s étrangers de voter, quel que soit le degré d’utilisation de ces droits, ont un impact positif plus large, favorisant la participation politique des citoyen·ne·s naturalisés. Constatant en outre des disparités entre collectivités étrangères et soucieux de promouvoir une participation politique accrue des résident·e·s étrangers, les délégué·e·s à l’intégration de Genève (BIC) et de Neuchâtel (COSM) ont chargé le Forum suisse pour l’étude des migrations et de la population (SFM) de l’Université de Neuchâtel, en collaboration avec l’Institut de démographie et socioéconomie (IDESO) de l’Université de Genève, d’étudier les raisons d’un tel décalage. L’étude se concentre sur les deux groupes présentant le taux le plus faible de participation électorale, à savoir les Portugais·e·s et les Espagnol·e·s. Dans le but de comprendre le comportement électoral en le situant dans un contexte plus large des trajectoires et des projets migratoires de ces populations, l’étude s’appuie sur une méthodologie mixte : elle combine une analyse documentaire approfondie avec, d’une part, des analyses statistiques sur des données jusqu’ici inexploitées et, d’autre part, une large étude auprès des populations en question.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Derrick, Fossong, e Ashu Mc Moi Ndi. Politique fiscale numérique et collecte des recettes fiscales au Cameroun. Institute of Development Studies, novembre 2024. http://dx.doi.org/10.19088/ictd.2024.091.

Testo completo
Abstract (sommario):
Le Cameroun a adopté une politique fiscale numérique il y a environ huit ans. Avant la mise en oeuvre complète de la politique fiscale numérique en 2016, les communes du Cameroun, en particulier les communes rurales et les communes d’arrondissement, ont signalé de nombreuses difficultés dues à des retards et à des irrégularités dans le partage des revenus du ouvernement central (impôts partagés). Les impôts directs et les redevances perçus par les communes étaient considérés comme faibles, compte tenu des efforts nécessaires pour les percevoir. Il est important de comprendre si l'adoption de la politique fiscal numérique a permis d'augmenter les recettes fiscales indispensables aux projets des collectivités locales et d'accroître les recettes fiscales générales. Les recettes fiscales générales correspondent aux transferts obligatoires vers le gouvernement central à des fins publiques et se composent de la rente des ressources, des impôts directs et indirects, et des taxes sur le commerce. Cette étude se penche sur les effets de la politique fiscale numérique sur la collecte des recettes fiscales au Cameroun en utilisant des données trimestrielles de 2010 à 2021 et une technique d'estimation par la méthode des décalages distribués autorégressifs (ARDL). Les résultats révèlent que la politique fiscal numérique mise en place en 2016 a eu un impact positif et significatif à long terme sur les recettes fiscales générales, mais un impact négatif et significatif à court terme sur les recettes fiscales générales. L'impact était positif mais non significatif sur les recettes fiscales locales prélevées par les communes, tant à long terme qu'à court terme. Les résultats indiquent que les gains positifs de la politique fiscale numérique au Cameroun n'ont pas encore été pleinement atteints en raison des contraintes locales dans les zones rurales. Sur la base de nos constatations, nous recommandons que les chefs d'entreprises soient formés à l'utilisation du système de déclaration et de paiement en ligne. Cela améliorera la facilité d'utilisation, réduira la dépendance vis à vis des agents et stimulera la collecte des recettes fiscales générales et des impôts locaux.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia