Auswahl der wissenschaftlichen Literatur zum Thema „Décalage de jeu de données“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Décalage de jeu de données" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Décalage de jeu de données"

1

Branellec, Gurvan, und Béatrice Sommier. „De la règle du jeu aux jeux sur la règle : l’utilisation des données numériques personnelles dans la présidentielle française de 2017“. Gestion et management public Volume 11 / N° 2, Nr. 2 (05.10.2023): 69–99. http://dx.doi.org/10.3917/gmp.112.0069.

Der volle Inhalt der Quelle
Annotation:
Notre recherche s’intéresse à l’utilisation des données numériques personnelles des électeurs par les acteurs du champ politique lors de l’élection présidentielle 2017. Elle a pour objectif de comprendre la construction de la régulation du recours à ces données au sein d’une configuration que tissent les différents acteurs que sont les équipes de campagne, les entreprises de solutions et/ou stratégie numériques électorales et la Commission Nationale Informatique et Liberté (CNIL). Une enquête qualitative inductive constate que les règles du jeu fixées par la puissance publique (CNIL) sont connues par les différents acteurs du champ politique, mais en décalage temporel avec leurs pratiques d’e-marketing ou perçues comme floues. Cela aboutit à une co-construction évolutive du cadre réglementaire. Interprétée à la lueur de la théorie des « modèles de jeu » d’Elias et des politiques d’influence d’Attarça, Corbel et Nioche, cette co-construction résulte d’un « jeu sur la règle » des acteurs qui développent une configuration sociale fluide dans laquelle un équilibre des forces s’opère entre les différentes parties prenantes du champ politique. Complété avec la Théorie de la Régulation Sociale de Reynaud, l’article s’interroge alors sur ce jeu sur la règle que constitue la corégulation entre acteurs publics et privés en se demandant si l’avantage ne devrait pas demeurer du côté de la puissance publique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mukwabatu, David Mukulu. „Des oxymores en politique congolaise (RDC). D’un État de droit sans droit à une démocratie illibérale“. KAS African Law Study Library - Librairie Africaine d’Etudes Juridiques 11, Nr. 1 (2024): 68–88. http://dx.doi.org/10.5771/2363-6262-2024-1-68.

Der volle Inhalt der Quelle
Annotation:
En principe, on ne peut pas parler d’un État de droit sans respect des principes et suprématie des normes qui régissent et formalisent la vie dans une société donnée. De même, on ne saurait parler de la démocratie sans libéralisme politique et juridique. Pourtant, l’expérience politique de la République Démocratique du Congo démontre la large faisabilité de ces oxymores. À cet effet, au regard de plusieurs paradoxes qu’offre le jeu d’acteurs sur la scène politique congolaise, cette étude se donne pour tâche d’analyser le décalage qui existe entre la théorie – principes formalisés et institutionnalisés en lois – et la pratique dans la conceptualisation et l’application des principes relatifs à un État de droit démocratique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Royet, Thomas, Nicolas Mascret und Olivier Vors. „Analyse de l’activité d’apprenants dans un dispositif visant le développement d’apprentissage tactique en badminton“. Staps N° 140, Nr. 2 (12.10.2023): 75–96. http://dx.doi.org/10.3917/sta.140.0075.

Der volle Inhalt der Quelle
Annotation:
L’intérêt de la dimension tactique des apprentissages en sports de raquette a été maintes fois démontré scientifiquement : au stade conatif « contextuel » en badminton (Dieu, 2012), lors de la phase « exploratoire » en tennis de table ( e.g ., Sève et al. , 2003). Professionnellement, les textes officiels (AFC, Programme lycée, 2019) comme la littérature spécialisée ( e.g ., Joing & Jospin, 2013) insistent sur la notion de choix tactique. Les rares études en badminton montrent une préoccupation principalement affective plutôt que tactique en lien avec l’histoire de match (Guillou & Durny, 2008). Il est également démontré divers décalages entre les prescriptions des enseignants et l’activité réelle des élèves lors du jeu du « Banco » (Rossard, Testevuide & Saury, 2005) ou en situation coopérative (Guérin et al. , 2004 ; Rossard & Saury, 2009). L’enjeu de notre étude compréhensive est d’analyser l’activité typique d’étudiants non spécialistes dans le dispositif scolaire d’apprentissage tactique en badminton « Les maîtres du jeu » (Deutz D’Arragon, Mascret & Vors, 2020) selon le programme de recherche du « cours d’action » avec l’objet théorique « cours d’expérience » à partir du signe tétradique (Saury et al. , 2013 ; Theureau, 2015). Les trois participants de niveaux différents de 18 ans sont des étudiants non optionnaires de badminton, en première année de STAPS. Le recueil de données s’est fait en début et en fin de séquence (leçons 1 et 12) avec les données remplies par l’observateur sur la fiche d’observation, l’espace de jeu où les volants sont envoyés et les données de verbalisation des joueurs lors de six séances d’entretiens d’autoconfrontation explicitant le point de vue des joueurs lors de 12 sets. Notre étude compréhensive a visé à analyser la dynamique des apprentissages tactiques d’étudiants placés dans le dispositif « Les maîtres du jeu » au travers de l’analyse de leur cours d’expérience. Les apprentissages tactiques ont été identifiés au travers du cours d’expérience des joueurs. Notre discussion portera sur une réflexion sur les usages des dispositifs d’apprentissage tactique et sur des pistes professionnelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Engel, Vincent. „"Tchiripisch" : le jeu du décalage“. Textyles, Nr. 5 (15.11.1988): 75–85. http://dx.doi.org/10.4000/textyles.1709.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Morin, Gilles. „1968, les raisons d'un hors-jeu de la FGDS“. Parlement[s], Revue d'histoire politique 9, Nr. 1 (14.05.2008): 62–79. http://dx.doi.org/10.3917/parl.009.0062.

Der volle Inhalt der Quelle
Annotation:
Résumé Alors que l’opposition semble être dans une position favorable en Mai 68, elle est en réalité fragile, à la fois structurellement et politiquement. Elle se trouve ainsi en décalage lors des événements et subit ensuite un revers majeur avec la dissolution et sa défaite aux élections. Or les causes et le sens de cet échec doivent être recherchés entre autres dans l’action parlementaire de la FGDS en Mai 68. En analysant ce qu’était la FGDS et son groupe et la nature de son combat parlementaire, puis en évaluant son éventuel décalage avec les aspirations de Mai 68, cet article cherche à comprendre les facteurs sociologiques, politiques et culturels de ce hors-jeu. Mais il montre aussi que cette expérience n’a pas eu que des aspects négatifs à plus long terme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Renard, Damien. „Les jeux publicitaires dans les stratégies de collecte de données numériques“. Recherches en Communication 49 (01.11.2019): 53–69. http://dx.doi.org/10.14428/rec.v49i49.52163.

Der volle Inhalt der Quelle
Annotation:
Le jeu publicitaire en ligne est utilisé par les organisations marchandes dans leurs stratégies de collecte de données. Ce qui caractérise ce type de jeu, c’est l’aménagement à l’intérieur du dispositif d’espaces promotionnels dans lesquels le joueur est invité à effectuer une série d’actions non directement liées au jeu. Cette recherche a pour objet de comprendre dans quelle mesure la création d’un environnement ludique est susceptible d’agir sur la décision du joueur de partager des données numériques.. Les résultats d’une étude empirique menée auprès d’un échantillon de consommateurs montrent qu’au-delà du prix à gagner, les joueurs ayant le sentiment de maîtriser le jeu tout en percevant un niveau de défi élevé tendent à partager davantage de données personnelles avec l’organisateur du jeu.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Salvio, Thiago de Souza. „A teoria de Althusser sobre o contrato social de Rousseau“. Revista Aurora 12, Edição Esp (20.12.2019): 9–16. http://dx.doi.org/10.36311/1982-8004.2019.v12esp.03.p9.

Der volle Inhalt der Quelle
Annotation:
O intuito do presente trabalho é expor ao lume do método de “jogo teórico de deslocamento” (“jeu” théorique du Décalage) a singular concepção de Althusser acerca do Contrato Social de Rousseau, por sua vez, será interpretado sob tal perspectiva as vicissitudes formais da problemática filosófica evocada, cujo pano de fundo se esbarra numa possível fundamentação do direito positivo moderno.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Elton-Marshall, Tara, Rochelle Wijesingha, Taryn Sendzik, Steven E. Mock, Mark van der Maas, John McCready, Robert E. Mann und Nigel E. Turner. „Marital Status and Problem Gambling among Older Adults: An Examination of Social Context and Social Motivations“. Canadian Journal on Aging / La Revue canadienne du vieillissement 37, Nr. 3 (13.07.2018): 318–32. http://dx.doi.org/10.1017/s071498081800017x.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉLes personnes âgées constituent, en proportion, la population la plus importante parmi les joueurs (Ontario Lottery and Gaming Corporation [OLG], 2012). Les joueurs célibataires seraient plus isolés socialement et solitaires (Dykstra & de Jong Gierveld, 2004), et plus susceptibles de s’engager dans le jeu, présentant ainsi des risques accrus pour le jeu compulsif (McQuade & Gill, 2012). Cette étude a examiné si des motivations sociales (jeu associé à la socialisation ou à la solitude) et le contexte social (sorties au casino avec des amis ou la famille) expliquent la relation entre le statut matrimonial et le jeu compulsif chez les personnes âgées. Nous avons aussi exploré si ces associations diffèrent en fonction du genre. Les données ont été extraites d’un échantillon aléatoire de 2103 adultes âgés de 55 ans et plus qui ont été contactés dans des sites de jeu du sud-ouest de l’Ontario. Ces données ont indiqué que le jeu en compagnie de la famille ou d’amis et le jeu associé à la solitude médient la relation entre le statut matrimonial et le jeu compulsif. Les personnes âgées célibataires étaient moins susceptibles de jouer avec de la famille ou des amis, comparativement aux aînés qui étaient mariés; ils étaient plus susceptibles d’utiliser le jeu pour contrer la solitude et leur profil de jeu était davantage compulsif. Les initiatives de prévention et de traitement devraient examiner les moyens permettant de diminuer la solitude et l’isolement social chez les personnes âgées, et offrir des activités sociales alternatives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Luquiens, A., M. Lagadec, A. Amirouche und M. Reynaud. „Repérage des joueurs de poker en ligne problématiques et pathologiques : évaluation transversale des joueurs du site de poker Winamax et construction d’un outil de dépistage en ligne“. European Psychiatry 29, S3 (November 2014): 536–37. http://dx.doi.org/10.1016/j.eurpsy.2014.09.404.

Der volle Inhalt der Quelle
Annotation:
ObjectifsNotre étude est la première phase transversale d’un essai randomisé en ligne. Elle a pour premier objectif de décrire et comparer les joueurs de poker en ligne non problématiques et les joueurs problématiques et pathologiques, recrutés dans leur environnement de jeu, sur le site de poker Winamax. Son deuxième objectif est de construire un outil de dépistage sensible et spécifique du jeu problématique ou pathologique à partir des données enregistrées par l’opérateur, et en se référant à un outil diagnostic reconnu, l’Index Canadien du Jeu Excessif (ICJE).MéthodesNotre étude a été proposée systématiquement à tous les joueurs de poker en ligne ouvrant une session de jeu sur le site Winamax, et considéré comme joueur actif inscrit depuis plus d’un mois sur le site (c’est-à-dire majeur et ayant justifié de leur identité). 14 595 joueurs ont été inclus et ont complété le questionnaire ICJE. Les données de comportement de jeu ont été extraites des données opérateurs enregistrées en routine pour chaque joueur inclus, pour les trente jours précédant l’inclusion. Nous avons constitué deux groupes : le groupe des joueurs non problématiques ayant un ICJE < 5 et le groupe des joueurs problématiques et pathologiques ayant un ICJE ≥ 5. Les données de jeux ont été décrites et comparées entre les deux groupes. Cette comparaison a permis de construire un modèle prédictif du jeu problématique et pathologique.RésultatsIl a été retrouvé une prévalence de 17,9 % de jeu problématique ou pathologique dans notre population. Les facteurs de risque de jeu problématique ou pathologiques identifiés et inclus dans le modèle prédictif sont : l’âge < 28 ans, le sexe masculin, la perte moyenne par session > 2 euros, la perte totale par mois > 45 euros, la compulsivité, le multitabling, le dépôt total non nul, le nombre de session > 60 par mois et le total des mises > 300 euros. Notre outil de dépistage présente une sensibilité de 80 % et un faible nombre de faux positifs ayant un score ICJE non nul et donc considéré comme non à risque.ConclusionNotre étude a permis de confirmer et préciser les facteurs de risque de pratique excessive du poker en ligne, et de construire un outil de dépistage avec de bonnes caractéristiques. Les perspectives de cette étude sont d’améliorer les stratégies de prévention du jeu pathologique par le repérage des joueurs problématiques et pathologiques sur les sites de poker en ligne par les opérateurs eux-mêmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Da Sylva, Lyne. „Les données et leurs impacts théoriques et pratiques sur les professionnels de l’information“. Documentation et bibliothèques 63, Nr. 4 (05.12.2017): 5–34. http://dx.doi.org/10.7202/1042308ar.

Der volle Inhalt der Quelle
Annotation:
Les données sont présentes dans l’environnement informationnel actuel sous différentes formes : données confidentielles commerciales ou gouvernementales, mégadonnées, données ouvertes des gouvernements, données ouvertes liées (Linked Open Data) du Web sémantique. Comment les professionnels de l’information devraient-ils se préparer pour traiter ces divers types de données ? Nous proposons que cette préparation repose sur trois éléments : une connaissance éclairée des différents types de données en jeu, une initiation aux ressources nécessaires pour traiter chaque type et une compréhension de l’impact qu’aura chacun sur la discipline des sciences de l’information et sur la pratique des professionnels de l’information.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Décalage de jeu de données"

1

Nodet, Pierre. „Biquality learning : from weakly supervised learning to distribution shifts“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG030.

Der volle Inhalt der Quelle
Annotation:
Le domaine de l'apprentissage avec des faiblesses en supervision est appelé apprentissage faiblement supervisé et regroupe une variété de situations où la vérité terrain collectée est imparfaite. Les étiquettes collectées peuvent souffrir de mauvaise qualité, de non-adaptabilité ou de quantité insuffisante. Dans ce mémoire nous proposons une nouvelle taxonomie de l'apprentissage faiblement supervisé sous la forme d'un cube continu appelé le cube de la supervision faible qui englobe toutes les faiblesses en supervision. Pour concevoir des algorithmes capables de gérer toutes supervisions faibles, nous supposons la disponibilité d'un petit ensemble de données de confiance, sans biais ni corruption, en plus de l'ensemble de données potentiellement corrompu. L'ensemble de données de confiance permet de définir un cadre de travail formel appelé apprentissage biqualité. Nous avons examiné l'état de l'art de ces algorithmes qui supposent la disponibilité d'un petit jeu de données de confiance. Dans ce cadre, nous proposons un algorithme basé sur la repondération préférentielle pour l'apprentissage biqualité (IRBL). Cette approche agnostique du classificateur est basée sur l'estimation empirique de la dérivée de Radon-Nikodym (RND), pour apprendre un estimateur conforme au risque sur des données non fiables repesées. Nous étendrons ensuite le cadre proposé aux décalages de jeu de données. Les décalages de jeu de données se produisent lorsque la distribution des données observée au moment de l'apprentissage est différente de celle attendue au moment de la prédiction. Nous proposons alors une version améliorée d'IRBL, appelée IRBL2, capable de gérer de tels décalages de jeux de données. Nous proposons aussi KPDR basé sur le même fondement théorique mais axé sur le décalage de covariable plutôt que le bruit des étiquettes. Pour diffuser et démocratiser le cadre de l'apprentissage biqualité, nous rendons ouvert le code source d'une bibliothèque Python à la Scikit-Learn pour l'apprentissage biqualité : biquality-learn
The field of Learning with weak supervision is called Weakly Supervised Learning and aggregates a variety of situations where the collected ground truth is imperfect. The collected labels may suffer from bad quality, non-adaptability, or insufficient quantity. In this report, we propose a novel taxonomy of Weakly Supervised Learning as a continuous cube called the Weak Supervision Cube that encompasses all of the weaknesses of supervision. To design algorithms capable of handling any weak supervisions, we suppose the availability of a small trusted dataset, without bias and corruption, in addition to the potentially corrupted dataset. The trusted dataset allows the definition of a generic learning framework named Biquality Learning. We review the state-of-the-art of these algorithms that assumed the availability of a small trusted dataset. Under this framework, we propose an algorithm based on Importance Reweighting for Biquality Learning (IRBL). This classifier-agnostic approach is based on the empirical estimation of the Radon-Nikodym derivative (RND), to build a risk-consistent estimator on reweighted untrusted data. Then we extend the proposed framework to dataset shifts. Dataset shifts happen when the data distribution observed at training time is different from what is expected from the data distribution at testing time. So we propose an improved version of IRBL named IRBL2, capable of handling such dataset shifts. Additionally, we propose another algorithm named KPDR based on the same theory but focused on covariate shift instead of the label noise formulation. To diffuse and democratize the Biquality Learning Framework, we release an open-source Python library à la Scikit-Learn for Biquality Learning named biquality-learn
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Betta, Mohammed. „Les données évolutives et le décalage : l'analyse statique et l'analyse dynamique“. Rennes 2, 1995. http://www.theses.fr/1995REN20010.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est l'analyse des tableaux de donnes à trois indices (voies). On s'intéresse particulièrement à l'analyse de telles données dans le cas ou le troisième indice désigne le temps. Dans la première partie de ce travail, nous présentons quelques unes des méthodes d'analyse des données ternaires. Nous consacrons un chapitre à celles qui intègrent dans leurs approches une structure de contiguïté quelconque. Dans la deuxième partie, nous proposons et développons une nouvelle méthode d'analyse de données évolutives sous contrainte de continuité temporelle. Cette méthode est élaborée en deux étapes indépendantes et complémentaires. Elle est caractérisée par la prise en compte de la structure d'ordre du facteur temps. Nous introduisons et justifions, dans la première étape, la notion de matrice de décalage à gauche ou à droite sur les données. Cette nouvelle notion nous permet de définir une famille d'indices de similarités sur l'ensemble des tableaux "individuels" fournissant ainsi une typologie des individus. C'est ce que l'on appelle analyse statique. Dans la deuxième étape, nous suggérons un nouveau critère qui permet de déterminer le sous-espace de représentation des "parcours individuels" à l'aide des trajectoires. Ce critère est aussi défini de manière à tenir compte de la structure d'ordre du temps, autrement dit la contiguïté temporelle. C'est l'analyse dynamique. Nous concluons cette thèse par le traitement de deux exemples de données évolutives avec notre approche d'une part, et la méthode Statis d'autre part. Enfin, une comparaison des résultats des deux méthodes est proposée
The objective of this thesis is to analyse three index data tables. We are especially interested in the analysis of these data in the case where the third index indicates time. In the first part of this study, we present some of methods used for anlysing three way data. One chapter will be given over to all those that incorporate contiguity structure in their approach. In the second part, we develop a new method of evolutive data analysis under a temporal contiguity constraint. This method is elaborated in two indepedent and complementary steps. First, we introduce the notion of an interval matrix on the left or the right which is used to define a group of similarity indices on individual tables. This is known as static analysis in the second stage, we suggest a new critiria which allows us to determine the subspace where trajectories are represented. This critiria is also defined taking the order structure of time into considerations. We call this dynamic analysis. This thesis concludes by anamysing two examples of evolutive data using two methods, the one we developed and the statis method. A comparison of the obtained results using the two methods is given
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mansiaux, Yohann. „Analyse d'un grand jeu de données en épidémiologie : problématiques et perspectives méthodologiques“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066272/document.

Der volle Inhalt der Quelle
Annotation:
L'augmentation de la taille des jeux de données est une problématique croissante en épidémiologie. La cohorte CoPanFlu-France (1450 sujets), proposant une étude du risque d'infection par la grippe H1N1pdm comme une combinaison de facteurs très divers en est un exemple. Les méthodes statistiques usuelles (e.g. les régressions) pour explorer des associations sont limitées dans ce contexte. Nous comparons l'apport de méthodes exploratoires data-driven à celui de méthodes hypothesis-driven.Une première approche data-driven a été utilisée, évaluant la capacité à détecter des facteurs de l'infection de deux méthodes de data mining, les forêts aléatoires et les arbres de régression boostés, de la méthodologie " régressions univariées/régression multivariée" et de la régression logistique LASSO, effectuant une sélection des variables importantes. Une approche par simulation a permis d'évaluer les taux de vrais et de faux positifs de ces méthodes. Nous avons ensuite réalisé une étude causale hypothesis-driven du risque d'infection, avec un modèle d'équations structurelles (SEM) à variables latentes, pour étudier des facteurs très divers, leur impact relatif sur l'infection ainsi que leurs relations éventuelles. Cette thèse montre la nécessité de considérer de nouvelles approches statistiques pour l'analyse des grands jeux de données en épidémiologie. Le data mining et le LASSO sont des alternatives crédibles aux outils conventionnels pour la recherche d'associations. Les SEM permettent l'intégration de variables décrivant différentes dimensions et la modélisation explicite de leurs relations, et sont dès lors d'un intérêt majeur dans une étude multidisciplinaire comme CoPanFlu
The increasing size of datasets is a growing issue in epidemiology. The CoPanFlu-France cohort(1450 subjects), intended to study H1N1 pandemic influenza infection risk as a combination of biolo-gical, environmental, socio-demographic and behavioral factors, and in which hundreds of covariatesare collected for each patient, is a good example. The statistical methods usually employed to exploreassociations have many limits in this context. We compare the contribution of data-driven exploratorymethods, assuming the absence of a priori hypotheses, to hypothesis-driven methods, requiring thedevelopment of preliminary hypotheses.Firstly a data-driven study is presented, assessing the ability to detect influenza infection determi-nants of two data mining methods, the random forests (RF) and the boosted regression trees (BRT), ofthe conventional logistic regression framework (Univariate Followed by Multivariate Logistic Regres-sion - UFMLR) and of the Least Absolute Shrinkage and Selection Operator (LASSO), with penaltyin multivariate logistic regression to achieve a sparse selection of covariates. A simulation approachwas used to estimate the True (TPR) and False (FPR) Positive Rates associated with these methods.Between three and twenty-four determinants of infection were identified, the pre-epidemic antibodytiter being the unique covariate selected with all methods. The mean TPR were the highest for RF(85%) and BRT (80%), followed by the LASSO (up to 78%), while the UFMLR methodology wasinefficient (below 50%). A slight increase of alpha risk (mean FPR up to 9%) was observed for logisticregression-based models, LASSO included, while the mean FPR was 4% for the data-mining methods.Secondly, we propose a hypothesis-driven causal analysis of the infection risk, with a structural-equation model (SEM). We exploited the SEM specificity of modeling latent variables to study verydiverse factors, their relative impact on the infection, as well as their eventual relationships. Only thelatent variables describing host susceptibility (modeled by the pre-epidemic antibody titer) and com-pliance with preventive behaviors were directly associated with infection. The behavioral factors des-cribing risk perception and preventive measures perception positively influenced compliance with pre-ventive behaviors. The intensity (number and duration) of social contacts was not associated with theinfection.This thesis shows the necessity of considering novel statistical approaches for the analysis of largedatasets in epidemiology. Data mining and LASSO are credible alternatives to the tools generally usedto explore associations with a high number of variables. SEM allows the integration of variables des-cribing diverse dimensions and the explicit modeling of their relationships ; these models are thereforeof major interest in a multidisciplinary study as CoPanFlu
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Kolmayer, Elisabeth. „Contribution à l'analyse des processus cognitifs mis en jeu dans l'interrogation d'une base de données documentaires“. Paris 5, 1997. http://www.theses.fr/1997PA05H051.

Der volle Inhalt der Quelle
Annotation:
Une interrogation documentaire confronte la représentation du domaine interroge propre à l'opérateur à celle du système documentaire. C'est cette confrontation qu'aborde ce travail. Pour analyser la représentation du domaine interroge chez l'opérateur, on recense les divers modes d'organisation des connaissances mis en évidence par la psychologie cognitive. On s'appuie pour cela sur les recherches liées aux catégorisations et sur celles liées aux expertises. Une approche expérimentale menée auprès de professionnels en milieu hospitalier étudié le rôle de deux facteurs d'expertise (le niveau de formation et l'expérience professionnelle) sur ces modes d'organisation. La représentation du domaine dans des systèmes documentaires est analysée à travers l'indexation par vedettes matière et par descripteurs. On repère les points de convergence et les différences entre les structurations utilisées dans les thesauri et les répertoires d'autorité matières d'une part, les organisations de connaissances mises enjeu par les usagers d'autre part. Mais dans les interrogations menées sur des systèmes réels, les expertises liées au domaine interroge sont écrasées par les expertises documentaires. Ceci conduit à s'interroger sur la représentation à donner de la situation d'interrogation. La considérer comme la recherche du meilleur appariement entre termes de requête et termes d'indexation ne correspond pas à la conduite des usagers. Il s'agit plutôt, pour eux, d'élaborer une représentation du but de l'interrogation compatible avec les contraintes documentaires. On envisage alors une interrogation documentaire comme un problème de conception auquel s'appliquent les concepts de plans -déclaratifs et procéduraux- et de contraintes. Une approche expérimentale en teste la pertinence dans l'analyse d'interrogations menées par des professionnels et des novices de la documentation, pour un outil documentaire donne : un catalogue informatise de bibliothèque. Quelques conséquences ergonomiques sont abordées
During the information retrieval process, two topic representations have to interact; one comes from the end-user, the other from the information system. We focus on this interaction. Cognitive psychology gives some tools to analyse the user's domain representation, as research on categorizations and about expert and novice knowledge has shown. An experimental approach with nurses and nursing auxiliaries analyses the effects of two expertise factors: experience and training level. We examine the domain representation in information system through indexing (indexing with descriptors and subject headings). We point out agreement and differences between knowledge organization such as in thesauri, in subject headings indexes and in the user's mind. But by interacting with an actual retrieval device, topic expertise plays a very small role; the important factor is the expertise of the own device. We focus then on the modelling of the information retrieval situation; the problem to face, for the end-user, is not to find the + best match ; between query and index terms, but to develop a representation of his information need convenient with the information system constraints. An information retrieval task is then concieved as a design problem to which the concepts of plans declarative and procedural- can be applied. An experiment tests the efficiency of such a modelling, analysing the seeking process of end-users and librarians interacting with an online catalog. Some ergonomic consequences are considered
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Pipien, Sarah. „A la recherche de quasars à grand décalage spectral dans le sondage CFHQSIR“. Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0376/document.

Der volle Inhalt der Quelle
Annotation:
J'ai consacré mon travail de thèse à la recherche de quasars à haut redshift dans le sondage Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). L'objectif principal de ce programme est de découvrir des quasars de redshift de l'ordre de z $\sim$ 7 dans les champs larges du CFHTLS (CFHTLS Wide) en utilisant des images réalisées dans le proche infrarouge avec la caméra WIRCam installée au foyer du CFHT. J'ai tout d'abord effectué la calibration photométrique de l'ensemble des données de CFHQSIR. J'ai ensuite étudié la qualité des images ainsi que leur propriété de bruit et leur profondeur. J'ai dans un deuxième temps calculé le nombre de quasars qu'il serait possible de détecter avec CFHQSIR et en ai déduit les contraintes envisageables sur la fonction de luminosité des quasars à z $\sim$ 7. J'ai ensuite procédé à l'identification de candidats quasars parmi les dizaines de milliers de sources que comptent les 130 degrés carrés couvert par CFHQSIR. Des observations de suivi photométriques des candidats ont finalement permis de révéler une cinquantaine d’objets, dont une quinzaine a été sélectionnée pour des observations spectroscopiques au Very Large Telescope (VLT). Celles-ci n’ayant, pour la plupart, pas encore été realisées, la nature exacte de ces sources ne pourra être connue que dans les prochains mois. Pour finir, la dernière partie de ma thèse s’est focalisée sur l’étude de modèles statistiques bayésiens afin de compléter ma méthode de sélection de candidats quasars. Cette étude m'a finalement permis de vérifier que la majorité des objets retenus pour des observations spectroscopiques étaient effectivement les candidats les plus probables
My PhD work is focused on the search for high-redshift quasars in the Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). The main scientific objective of this CFHT Large Program is to search for quasars at redshift z $\sim$ 7 with near-infrared images of the CFHTLS Wide fields acquired with the CFHT WIRCam camera. Firstly, I carried out the photometric calibration of the CFHQSIR images. I performed a detailed analysis of the CFHQSIR data by studying their quality, as well as their noise properties and their depths.Secondly, I computed the number of high-redshift quasars that could be detected with CFHQSIR and the corresponding constraints which could be put on the z $\sim$ 7 quasar luminosity function. Then, I proceeded to the identification of quasar candidates among the many thousands of sources in the 130 square degrees covered by CFHQSIR. Photometric follow-up observations of the candidates revealed about fifty objects, of which fifteen were chosen to be spectroscopically observed with the Very Large Telescope (VLT). Given that this spectroscopic follow-up is not yet completed, the exact nature of these sources will only be known in the coming months. To finish, I applied Bayesian model comparison to my sample in order to complete and consolidate my selection procedure. My candidates were finally classified according to their probability to be a high-redshift quasar. I verified that the majority of the most likely candidates were selected for spectroscopic observations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bernard, Luc. „Développement d'un jeu de structures de données et de contraintes sémantiques pour la compilation(séparée) du langage ADA“. Doctoral thesis, Universite Libre de Bruxelles, 1985. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213624.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ponzano, Matteo. „Prévisibilité des épisodes méditerranéens de pluies intenses à l'aide d'un jeu de données de 30 ans de prévisions rétrospectives“. Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30329.

Der volle Inhalt der Quelle
Annotation:
Le sud-est de la France est une région particulièrement propice à l'occurrence de crues torrentielles associées à des événements de pluies très intenses. Ces événements peuvent causer des pertes matérielles et humaines considérables. Les techniques de prévision de ces pluies exceptionnelles ont nettement progressé et on parvient à représenter des cumuls de pluie très proches de ceux observés. Néanmoins, les incertitudes liées à la prévision de ces événements sont encore importantes et il reste nécessaire d'améliorer la connaissance des processus qui y contribuent. Dans cette thèse, nous nous intéressons à la prévisibilité des épisodes intenses de pluie sur le sud-est de la France. Notre étude repose sur l'utilisation d'une base de prévisions rétrospectives par un système dérivé du modèle de prévision d'ensemble opérationnel PEARP, que l'on dénomme reforecast et d'une profondeur de 30 années. Cette version utilise plusieurs schémas physiques comme pour le système d'origine mais ne peut techniquement disposer des mêmes conditions initiales et de la technique utilisée pour les perturber. Afin de vérifier la capacité du reforecast à représenter les incertitudes du système PEARP, une première partie de l'étude est consacrée à son évaluation. Le fait de ne pas avoir de conditions initiales perturbées entraîne un manque de dispersion du reforecast par rapport à celle de PEARP. On observe cependant une bonne qualité du reforecast pour des seuils de précipitation élevés et des échéances de prévision de quatre jours. Cela montre la possibilité d'extraire d'un tel système de l'information utile pour améliorer ses performances par des techniques de post-traitement ou calibrage. Deux expériences de calibrage sont ensuite menées, l'une basée sur une méthode de quantile mapping et la seconde sur une méthode de régression logistique étendue, appliquées chacune sur le reforecast. Avec la première méthode appliquée membre par membre, on améliore le biais de chacun des membres, mais on n'améliore pas les scores probabilistes. Dans la seconde expérience, le reforecast calibré donne de meilleurs scores quelque soit le seuil de définition de l'événement. Cette technique a donc été appliquée à la prévision opérationnelle, les résultats ne sont pas aussi convaincants que ceux obtenus avec le reforecast mais on observe tout de même une amélioration des prévisions pour les événements les plus intenses. La dernière partie de l'étude a été consacrée à l'utilisation d'une métrique basée sur l'identification de structures cohérentes ou objets de pluie proposée par Wernli et al. (2008). On montre que le facteur prédominant de la performance du modèle réside dans le choix du schéma de convection profonde de la paramétrisation de chaque membre. Dans le cas de PEARP, ces schémas peuvent être regroupés en deux grandes familles, dont la dichotomie se projette significativement sur la performance de la prévision. Le schéma donnant les meilleurs résultats montre la très bonne capacité du modèle à reproduire la distribution du volume de pluie par objet pour les épisodes les plus intenses
The French Mediterranean region is prone to very intense flash-flood events induced by heavy precipitation events (HPEs), which are responsible for considerable human and material damage. Quantitative precipitation forecasts have improved dramatically in recent years towards quasi-realistic rainfall estimations. Nevertheless, the proper estimation of the uncertainty associated with the physical processes representation remains a challenging issue. In this thesis, we address the predictability of intense precipitation in the French Mediterranean region using a 30-year ensemble hindcast dataset based on the ensemble prediction system PEARP, operational at Météo-France. This reforecast system implements the same model error as PEARP, but initial and boundary conditions are differently assessed. In order to assess the ability of the reforecast to represent the errors of the original model, we first verify this reforecast using some verification scores. The lack of initial condition perturbation makes the ensemble spread of the reforecast lower than the PEARP's one. Though probabilistic forecast scores are weak due to these set-up deficiencies, some skills are observed at 4-days lead time and for very large thresholds. However, the duration of the reforecast dataset and the resolution inherited from the operational model seem to provide enough complexity to the rainfall reforecast distributions. Two post-processing methods, based on quantile mapping and extended logistic regression techniques, are applied to the reforecast. The quantile mapping approach reduces the members biases, but the benefits in terms of probabilistic scores are lower than expected. The calibration procedure using the extended logistic regression approach leads to better probabilistic scores, both for low and large precipitation thresholds. The extended logistic regression fitted on the reforecast as a learning dataset is then applied on the operational ensemble system PEARP over a 4-month period. Though calibrated forecasts skills are not globally improved, some high probability thresholds are slightly improved, suggesting such methodology could be finally efficiently tuned. The last part of this thesis further investigates systematic errors of intense precipitation forecasting using the feature-based metric SAL (Wernli et al. (2008)). This spatial metric applied to the reforecast shows that both amplitude and structure components are controlled by deep convection parametrizations. Indeed, between the two main deep convection schemes implemented in the model, one scheme performs better, in particular for the most extreme events. A remarkable aptitude of the model is emphasised as the ranked distribution of the very intense integrated rainfall features is accurately represented by the model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Charneau, Sébastien. „Approches moléculaires des mécanismes mis en jeu en fin de schizogonie intraérythrocytaire de Plasmodium falciparum (agent du paludisme) par hybridation soustractive suppressive et puces à ADN“. Paris, Muséum national d'histoire naturelle, 2005. http://www.theses.fr/2005MNHN0001.

Der volle Inhalt der Quelle
Annotation:
Le propos de ce travail était d'étudier la différenciation des mérozoi͏̈tes de Plasmodium falciparum à travers son transcriptome. Premièrement, par hybridation soustractive suppressive, nous avons réalisé une banque d'ADNc spécifique de stade. Nous avons identifié 40 gènes exprimés spécifiquement lors de la morphogenèse des mérozoi͏̈tes, certains attendus car codant pour des protéines du mérozoi͏̈te (27,5%), les autres codant pour des protéines aux fonctions inconnues (72,5%). Nous avons caractérisé l'une de ces protéines, la dynamine 2 homologue. Exprimée uniquement lors de la schizogonie, elle pourrait être une molécule-clé de la différenciation des mérozoi͏̈tes et être impliquée dans la division mitochondriale. Deuxièmement, par puces à ADN, nous avons identifié dix gènes, encore non décrits, dont l'expression est significativement modulée par la rottlérine, un inhibiteur de protéines kinases qui stoppe la différenciation des mérozoi͏̈tes conduisant à la lyse du parasite
The aim of this work was to study the differentiation of Plasmodium falciparum merozoite through its transcriptome. First, by suppression subtractive hybridization, we have realised a stage-specific cDNA library. We have identified 40 genes specifically expressed during merozoite morphogenesis, some expected as coding for merozoite proteins (27. 5%), the other coding for proteins of unknown function (72. 5%). We have characterized one of these proteins, the dynamin-2-like. Expressed only during schizogony, it could be a key-molecule of the merozoite differentiation and be involved in mitochondrial division. Second, by microarrays, we have identified 10 genes, as yet unreported, whose expression is significantly modulated by rottlerin, a protein kinase inhibitor that stops merozoite differentiation leading to the parasite lysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gogolashvili, Davit. „Global and local Kernel methods for dataset shift, scalable inference and optimization“. Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS363v2.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans de nombreux problèmes du monde réel, les données de formation et les données de test ont des distributions différentes. Cette situation est communément appelée " décalage de l'ensemble de données ". Les paramètres les plus courants pour le décalage des ensembles de données souvent considérés dans la littérature sont le décalage des covariables et le décalage des cibles. Dans cette thèse, nous étudions les modèles nonparamétriques appliqués au scénario de changement d'ensemble de données. Nous développons un nouveau cadre pour accélérer la régression par processus gaussien. En particulier, nous considérons des noyaux de localisation à chaque point de données pour réduire les contributions des autres points de données éloignés, et nous dérivons le modèle GPR découlant de l'application de cette opération de localisation. Grâce à une série d'expériences, nous démontrons la performance compétitive de l'approche proposée par rapport au GPR complet, à d'autres modèles localisés et aux processus gaussiens profonds. De manière cruciale, ces performances sont obtenues avec des accélérations considérables par rapport au GPR global standard en raison de l'effet de sparsification de la matrice de Gram induit par l'opération de localisation. Nous proposons une nouvelle méthode pour estimer le minimiseur et la valeur minimale d'une fonction de régression lisse et fortement convexe à partir d'observations contaminées par du bruit aléatoire
In many real world problems, the training data and test data have different distributions. The most common settings for dataset shift often considered in the literature are covariate shift and target shift. In this thesis, we investigate nonparametric models applied to the dataset shift scenario. We develop a novel framework to accelerate Gaussian process regression. In particular, we consider localization kernels at each data point to down-weigh the contributions from other data points that are far away, and we derive the GPR model stemming from the application of such localization operation. We propose a new method for estimating the minimizer and the minimum value of a smooth and strongly convex regression function from the observations contaminated by random noise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Danilo, Céline. „Évaluation des courants de surface océanique au moyen d’un radar à ouverture synthétique“. Brest, 2009. http://www.theses.fr/2009BRES2023.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est d’extraire la composante du courant de surface océanique dans l’axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d’ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d’ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu’à étendre cette analyse à de larges scènes observées sous de multiples angles d’incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s’appuie sur l’hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d’estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d’une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d’onde relativement courtes typiques de la mer du vent. L’utilisation pratique de l’information de vent à 10 m de la surface pour estimer la contribution des vagues est évaluée. La méthode d’extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d’incidence constant de 23° à partir d’imagettes ponctuelles réparties sur l’ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des Images de grande taille (400 km par 400 km au minimum) pour lesquelles l’angle d’incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l’effet de l’angle d’incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l’angle d’incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ, Ce résultat est encourageant pour le développement d’une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l’existence de courant côtier fortement variable ne permet plus de faire l’hypothèse de courant uniforme sur la surface d’estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l’ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images CAR pour restituer une information de courant de surface à haute résolution
The aim of this thesis is to extract the radar line-of-sight component of sea surface current from the Doppler shift of a signal received by a synthetic aperture radar on board of ENVISAT. The primary goals of this work are the separation of waves and surface current components to this Doppler shift and, furthermore, the expansion of this analysis to multiple angles of incidence, thereby making it possible to map sea surface currents. This study is limited to vertical polarization and to the radar frequency hand C. Extraction of current signature is based on the assumption that the Doppler shift is caused solely by surface gravity waves and by surface current. Moreover, we initially assume that the current is uniform within the surface of Doppler shift estimation. Under these assumptions, the current component can be deduced from the Doppler shift by substracting the wave component. The latter have relatively short wavelengths, which is typical of wind-sea. Practical use of 10 m wind information for the estimation of waves component is evaluated. A method for extracting surface current information is developed and tested, initially for a constant incidence angle of 23°, on small-sized and isolated ocean images from all over the oceans. A comparison of the monthly average speeds, obtained by on-site current measurements, indicates an RMS error of 0. 35 m/s. As a further step, the same methodology is applied for larger acquisitions (400 km by 400 km minimum) for which the incidence angle ranges from 16 to 42°, This new configuration requires a preliminary analysis of the effect of incidence angle variation on the Doppler shift. We show that an increase of the angle of incidence results in the increase of the relative component of surface current to the Doppler shift, and that the latter also varies according to the direction of wind with respect to the direction of the radar. The estimated surface current component shows a good quantitative correspondence with the same component measured by on-site sensors. This result is encouraging in view of the development of a more systematic technique. Finally, the last part of this work is devoted to a more complex case, namely that of coastal current: here, the hypothesis of a uniform surface current within the estimation surface cannot be maintained anymore due to the great variability of these currents. In this case, we proceed by analyzing maps of Doppler shift of a 1 km resolution. Despite the complexity of this situation, once again, the comparison between Doppler shift-derived velocities and data from tidal current maps indicates a strong potential of SAR images to return high resolution information on surface currents
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Décalage de jeu de données"

1

Cellule d'étude de politique économique (Guinea), Hrsg. L'accord general sur le commerce des services: Les données du jeu pour la Guinée. Conakry: Cellule d'étude de politique économique, 2004.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Jet lag and travel: A specialized bibliography from the SPORT database = Voyages et problèmes liés au décalage horaire : une bibliographie specialisée de la base de données SPORT. Gloucester, Ont: Sport Information Research Centre, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Décalage de jeu de données"

1

DÉJEAN, Sébastien, und Kim-Anh LÊ CAO. „Modèles multivariés pour l’intégration de données et la sélection de biomarqueurs dans les données omiques“. In Intégration de données biologiques, 211–69. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch7.

Der volle Inhalt der Quelle
Annotation:
Les méthodes multivariées linéaires présentées permettent : l’exploration d’un seul jeu de données (ACP), la discrimination (PLS-DA), l’intégration de plusieurs jeux de données (PLS, multi-block PLS). Les aspects mathématiques de chaque méthode sont présentés, ensuite leur mise en œuvre sur des exemples fictifs et réels permet d’en illustrer l’intérêt pour répondre à des questions biologiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

RONDOT, Camille. „« Raconte tes données », entre euphémisation, standardisation et poétique du chiffre“. In Analyses des sites web, 269–89. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9103.ch10.

Der volle Inhalt der Quelle
Annotation:
L’auteure propose une analyse de la mise en récit sur les sites web des nouvelles compétences professionnelles liées à l’écoute des médias sociaux. À partir d’un corpus de sites web d’agences et de consultants en communication numérique, elle analyse les mécanismes d’une rhétorique professionnelle qui implique à la fois une personnification et une euphémisation des stratégies en jeu.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

DERYCKE, Marc. „Le vivre ensemble en jeu dans une « famille d’accueil »“. In Pratiques de la diversité et de la citoyenneté, 53–64. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5586.

Der volle Inhalt der Quelle
Annotation:
La contribution traitera à partir des données recueillies au cours d’une longue ethnographie de la rencontre de deux déficiences qui font altérité : d’une part, les fréquents troubles du comportement d’enfants retirés à leur famille et placés par le juge dans une famille d’accueil, de l’autre le « handicap socioculturel » (illettrisme) dont ces parents sont frappés. À l’encontre du préjugé dominant, seront-ils capables en dépit de leur ignorance d’insérer dans la loi du vivre ensemble ceux qui leur sont confiés et qui ont vécu un passé chaotique ? Leur succès montrera que cette éducation ne doit rien à l’expertise, mais à une relation éducative respectueuse de l’autonomie dans l’apprentissage de la liberté.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

BEUGNON, Sébastien, Vincent ITIER und William PUECH. „Tatouage 3D“. In Sécurité multimédia 1, 231–60. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch7.

Der volle Inhalt der Quelle
Annotation:
Les maillages 3D sont largement utilisés dans l'industrie dans des domaines très différents tels que le jeu vidéo, le diagnostic médical, la CAO ou l’impression 3D. Dans ce contexte, les techniques d'insertion de données cachées sont intéressantes pour dissimuler et préserver des informations associées à un maillage ou à un nuage de points 3D. Dans ce chapitre, nous présentons les enjeux de ces technologies et les contraintes liées à la structure des maillages 3D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

GARZELLI, Andrea, und Claudia ZOPPETTI. „Analyse multitemporelle d’images Sentinel-1/2 pour le suivi de l’utilisation des sols“. In Détection de changements et analyse des séries temporelles d’images 1, 221–45. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch8.

Der volle Inhalt der Quelle
Annotation:
Les données SAR en bande C de Sentinel-1 et les images multispectrales de Sentinel-2 à courte période de revisite offrent un grand potentiel pour améliorer le suivi en continu d'activités à la surface de la Terre. Le suivi de changements à grande échelle exige une longue période d'observation - plusieurs mois à un an pour caractériser les transformations urbaines - et de fréquentes revisites pour assurer une résolution temporelle adéquate. Le volume de données qui en résulte est donc impressionnant et des données prétraitées, c.à.d. des images étalonnées, corrigées géométriquement, géocodées, sont nécessaires pour rendre le problème abordable en un temps raisonnable. Comparés aux instruments optiques, les capteurs SAR peuvent observer la surface de la Terre dans toutes les conditions météorologiques et peuvent fournir des informations utiles sur les zones urbaines, compte tenu de leur sensibilité aux caractéristiques géométriques des structures urbaines. Les attributs SAR forment le jeu de données pour la première étape de la chaîne de traitement proposée pour la détection multitemporelle de bâtiments. Les caractéristiques complémentaires des images multispectrales Sentinel-2 sur la même zone peuvent alors être exploitées pour estimer l'étendue de la transformation urbaine détectée précédemment par les capteurs SAR.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lafourcade, Mathieu, und Nathalie Lebrun. „Vers un réseau lexico-sémantique de grande taille obtenu par crowdsourcing“. In Le Crowdsourcing, 75–94. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3913.

Der volle Inhalt der Quelle
Annotation:
Le projet JeuxDeMots vise à construire une grande base de connaissances de sens commun (et de spécialité), en français, à l’aide de jeux (GWAPs – Games With A Purpose), d’approches contributives, mais également de mécanismes d’inférences. Une dizaine de jeux ont été conçus dans le cadre du projet, chacun permettant de collecter des informations spécifiques, ou de vérifier la qualité de données acquises via un autre jeu. Cet article s’attachera à décrire la nature des données que nous avons collectées et construites, depuis le lancement du projet durant l’été 2007. Nous décrirons en particulier les aspects suivants : la structure du réseau lexical et sémantique JeuxDeMots, certains types de relations (sémantiques, ontologiques, subjectives, rôles sémantiques, associations d’idées, etc.), les questions d’activation et d’inhibition, l’annotation de relations (méta-informations), les raffinements sémantiques (gestion de la polysémie), la création de termes agglomérés permettant la représentation de connaissances plus riches (relations à n-arguments).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

KANE, Ibrahima. „La décentralisation au Sénégal“. In Revue Internationale des Sciences Économiques et Sociales (RISES) No. 4, 125–44. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.8160.

Der volle Inhalt der Quelle
Annotation:
Contrairement à son esprit, la décentralisation, par un dévoiement depuis l’indépendance, est très hypothétique à supporter le développement local au Sénégal. L’objectif est alors, par le cas sénégalais, de procéder à une analyse critique de la décentralisation. La revue documentaire, axe majeur des investigations, les observations du jeu des acteurs et les entretiens individuels libres avec des personnes ressources, notamment des élus locaux, ont alors livré une mine de données théoriques et empiriques sur la décentralisation, notamment au Sénégal. L’analyse comparative de celles-ci a permis d’aboutir aux résultats suivants. La décentralisation, par un partage des pouvoirs et compétences et une gouvernance de proximité plus démocratique, efficiente et efficace, doit favoriser le développement local. Malheureusement, elle relève plus d’une adaptation conjoncturelle que d’une volonté politique, révèle plus une lutte pour le pouvoir qu’une collaboration pour des intérêts nationaux et des moyens trop faibles pour l’exercice optimal du pouvoir et le développement local. La conscience et l’acceptation d’un État unitaire, la promotion de la participation citoyenne et l’application diligente de la deuxième phase de l’acte 3 de la décentralisation sont alors des pistes sérieuses pour le retour gagnant à l’esprit de la décentralisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

DEJEAN DE LA BÂTIE, Alice. „A l’aube de l’ère pénale sanitaire“. In Les épidémies au prisme des SHS, 251–55. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.6011.

Der volle Inhalt der Quelle
Annotation:
Face à la menace puis aux ravages de l’épidémie de Covid-19, les autorités publiques ont fait le choix de la coercition pour tenter de juguler la contagion. Si de nombreuses mesures relevaient d’abord de la police administrative, le bras armé du droit pénal n’a pas tardé à être brandi par l’Etat pour contraindre les individus réfractaires à jouer le jeu collectif du confinement, du couvre-feu, des gestes barrières et de la traçabilité. Le contexte épidémique s’est ainsi accompagné d’un arsenal pénal spécial dont il y a à craindre qu’il laissera des séquelles durables. I. L’arsenal pénal spécial contre l’épidémie Piochant dans les différentes branches du droit pénal spécial - matière juridique qui s’intéresse à l’étude des infractions - , les autorités ont adopté une approche double : d’une part le recours à des délits classiques et d’autre part la création de nouvelles infractions sur mesure. Pour certains, le nouveau coronavirus est mortel, pour d’autres, il n’engendre aucun symptôme. Face à cette variabilité des effets, ce sont les plus dangereux pour la vie et l’intégrité physique qui guident la qualification pénale. Cela conduit à invoquer la mise en danger d’autrui - en l’absence de victimes -, l’homicide par imprudence, ou encore les violences involontaires à l’encontre des organisateurs de fêtes clandestines, mais aussi, par exemple, des employeurs qui obligent à venir travailler dans des conditions sanitaires douteuses. A l’inverse, le délit d’atteinte au secret professionnel est balayé d’un revers de main pour laisser place à l’injonction de transmission des données personnelles et médicales. En parallèle, ce n’est qu’une question de temps avant que le faux et l’usage de faux soient reprochés aux personnes qui se dotent d’attestations falsifiées. On songe non seulement à l’attestation-employeur permettant de s’exonérer des contraintes du confinement ou du couvre-feu, mais également aux attestations de test-PCR négatif permettant d’accéder à certains lieux ou de passer les frontières. Le gouvernement a en outre multiplié les sanctions pénales pour contraindre la population au port du masque ainsi qu’au respect des mesures successives de confinement ou de couvre-feu. Si l’on reste en principe dans le domaine contraventionnel, un instrument juridique spécifique est mis à l’honneur par ce nouvel arsenal pénal : la récidive. Elle permet d’abord d’augmenter le montant de l’amende puis de faire entrer le comportement dans le domaine délictuel et d’y attacher la menace d’une peine d’emprisonnement et de peines complémentaires comme le travail d’intérêt général et la suspension du permis de conduire. II. Les séquelles de l’épidémie sur le droit pénal spécial Les avancées du droit pénal décrites ci-dessus sont autant d’offenses à la liberté. Si le contexte épidémique les a rendues temporairement nécessaires, il y a fort à craindre que certaines d’entre elles s’installent durablement dans le paysage pénal français. Les spécialistes de droit public et de théorie politique s’inquiètent déjà de la propension des citoyens à s’habituer à l’état d’urgence sanitaire, au détriment de leurs libertés fondamentales. Nous devons à notre tour dénoncer l’empreinte profonde que l’épidémie risque de laisser sur le droit pénal spécial. Un secret professionnel affaibli par des procédures de traçage - pourquoi ne pas y recourir lors de la prochaine épidémie de grippe ou de gastro-entérite ? -, un recours récurrent à la mesure martiale du couvre-feu, une logique d’escalade rapide des sanctions par le biais de la récidive, le spectre d’un trafic de documents de type “passeport sanitaire”… sont autant de risques qui pèsent sur nos libertés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Décalage de jeu de données"

1

Larrieu, Maxence. Pour quelles revues et publishers les chercheurs d'une université pluridisciplinaire travaillent-ils ? Université Paris Cité, September 2023. http://dx.doi.org/10.53480/luoj2939.

Der volle Inhalt der Quelle
Annotation:
Le rapport contextualise et présente une cartographie réalisée en 2022 à Université Paris Cité, dans le cadre de la plateforme éditoriale OPUS. Les activités éditoriales visées sont celles nécessaires au fonctionnement d'une revue scientifique, comme rédacteur en chef, relecteur ou plus largement membre des comités éditoriaux. La cartographie décrit les revues dans lesquelles les chercheurs de l'université exercent ces activités. Elle se démarque par l'utilisation du récent outil OpenEditors , qui partage les données structurées des comités éditoriaux des principaux publishers 1. Cette méthode, enrichie manuellement, autorise une vue omnidisciplinaire appropriée pour l'université : environ 320 revues sont identifiées, 130 pour la santé, idem pour les SHS et moitié moins pour les sciences et techniques. Les revues sont ensuite analysées manuellement selon différents critères : gouvernance, plateforme, publisher commercial et modèle économique. Les résultats, composés de 7 graphiques, sont précédés d'une explication de la méthode et du jeu de données réalisé. Enfin, des exemples d'utilisation de la cartographie sont proposés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, April 2012. http://dx.doi.org/10.57071/170rex.

Der volle Inhalt der Quelle
Annotation:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Fibbi, Rosita, Leonie Mugglin, Lisa Iannello, Andrea Bregoli, Philippe Wanner, Didier Ruedin, Denise Efionayi-Mäder und Marta Marques. « Que des locataires ! » : participation politique des résident·e·s espagnols et portugais à Genève et Neuchâtel. Université de Neuchâtel - Swiss Forum for Migration and Population Studies (SFM), 2023. http://dx.doi.org/10.35662/unine-sfmstudies-83.

Der volle Inhalt der Quelle
Annotation:
Les cantons de Neuchâtel et Genève ont fait de l’inclusion politique de personnes étrangères un axe majeur de leurs politiques d’intégration. Neuchâtel a été le premier canton à octroyer le droit de vote communal pour les résident·e·s étrangers en 1849 ; en 2000, avec la nouvelle Constitution, il a accordé le droit de vote cantonal aux étranger·ère·s au bénéfice d’un permis d’établissement, domiciliés dans le canton depuis 5 ans et, successivement, en 2007 le droit d’éligibilité au niveau communal. Genève a été le premier canton à accepter en votation populaire en 2005 l’introduction du droit de vote communal (sans l’éligibilité) aux étranger·ère·s résidant légalement en Suisse depuis 8 ans. La participation électorale de la population étrangère est inférieure à celle des autochtones en Suisse à l’instar des autres pays ayant accordé des droits politiques au niveau local aux résident⸱e⸱s étrangers. L’âge, le niveau de formation et la condition socio-économique, ainsi que la connaissance du système politique, expliquent dans une large mesure ce décalage dans la participation électorale. La recherche montre également que des lois électorales inclusives permettant aux résident·e·s étrangers de voter, quel que soit le degré d’utilisation de ces droits, ont un impact positif plus large, favorisant la participation politique des citoyen·ne·s naturalisés. Constatant en outre des disparités entre collectivités étrangères et soucieux de promouvoir une participation politique accrue des résident·e·s étrangers, les délégué·e·s à l’intégration de Genève (BIC) et de Neuchâtel (COSM) ont chargé le Forum suisse pour l’étude des migrations et de la population (SFM) de l’Université de Neuchâtel, en collaboration avec l’Institut de démographie et socioéconomie (IDESO) de l’Université de Genève, d’étudier les raisons d’un tel décalage. L’étude se concentre sur les deux groupes présentant le taux le plus faible de participation électorale, à savoir les Portugais·e·s et les Espagnol·e·s. Dans le but de comprendre le comportement électoral en le situant dans un contexte plus large des trajectoires et des projets migratoires de ces populations, l’étude s’appuie sur une méthodologie mixte : elle combine une analyse documentaire approfondie avec, d’une part, des analyses statistiques sur des données jusqu’ici inexploitées et, d’autre part, une large étude auprès des populations en question.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie