Dissertations / Theses on the topic 'Décalage de jeu de données'

To see the other types of publications on this topic, follow the link: Décalage de jeu de données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'Décalage de jeu de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nodet, Pierre. "Biquality learning : from weakly supervised learning to distribution shifts." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG030.

Full text
Abstract:
Le domaine de l'apprentissage avec des faiblesses en supervision est appelé apprentissage faiblement supervisé et regroupe une variété de situations où la vérité terrain collectée est imparfaite. Les étiquettes collectées peuvent souffrir de mauvaise qualité, de non-adaptabilité ou de quantité insuffisante. Dans ce mémoire nous proposons une nouvelle taxonomie de l'apprentissage faiblement supervisé sous la forme d'un cube continu appelé le cube de la supervision faible qui englobe toutes les faiblesses en supervision. Pour concevoir des algorithmes capables de gérer toutes supervisions faibles, nous supposons la disponibilité d'un petit ensemble de données de confiance, sans biais ni corruption, en plus de l'ensemble de données potentiellement corrompu. L'ensemble de données de confiance permet de définir un cadre de travail formel appelé apprentissage biqualité. Nous avons examiné l'état de l'art de ces algorithmes qui supposent la disponibilité d'un petit jeu de données de confiance. Dans ce cadre, nous proposons un algorithme basé sur la repondération préférentielle pour l'apprentissage biqualité (IRBL). Cette approche agnostique du classificateur est basée sur l'estimation empirique de la dérivée de Radon-Nikodym (RND), pour apprendre un estimateur conforme au risque sur des données non fiables repesées. Nous étendrons ensuite le cadre proposé aux décalages de jeu de données. Les décalages de jeu de données se produisent lorsque la distribution des données observée au moment de l'apprentissage est différente de celle attendue au moment de la prédiction. Nous proposons alors une version améliorée d'IRBL, appelée IRBL2, capable de gérer de tels décalages de jeux de données. Nous proposons aussi KPDR basé sur le même fondement théorique mais axé sur le décalage de covariable plutôt que le bruit des étiquettes. Pour diffuser et démocratiser le cadre de l'apprentissage biqualité, nous rendons ouvert le code source d'une bibliothèque Python à la Scikit-Learn pour l'apprentissage biqualité : biquality-learn
The field of Learning with weak supervision is called Weakly Supervised Learning and aggregates a variety of situations where the collected ground truth is imperfect. The collected labels may suffer from bad quality, non-adaptability, or insufficient quantity. In this report, we propose a novel taxonomy of Weakly Supervised Learning as a continuous cube called the Weak Supervision Cube that encompasses all of the weaknesses of supervision. To design algorithms capable of handling any weak supervisions, we suppose the availability of a small trusted dataset, without bias and corruption, in addition to the potentially corrupted dataset. The trusted dataset allows the definition of a generic learning framework named Biquality Learning. We review the state-of-the-art of these algorithms that assumed the availability of a small trusted dataset. Under this framework, we propose an algorithm based on Importance Reweighting for Biquality Learning (IRBL). This classifier-agnostic approach is based on the empirical estimation of the Radon-Nikodym derivative (RND), to build a risk-consistent estimator on reweighted untrusted data. Then we extend the proposed framework to dataset shifts. Dataset shifts happen when the data distribution observed at training time is different from what is expected from the data distribution at testing time. So we propose an improved version of IRBL named IRBL2, capable of handling such dataset shifts. Additionally, we propose another algorithm named KPDR based on the same theory but focused on covariate shift instead of the label noise formulation. To diffuse and democratize the Biquality Learning Framework, we release an open-source Python library à la Scikit-Learn for Biquality Learning named biquality-learn
APA, Harvard, Vancouver, ISO, and other styles
2

Betta, Mohammed. "Les données évolutives et le décalage : l'analyse statique et l'analyse dynamique." Rennes 2, 1995. http://www.theses.fr/1995REN20010.

Full text
Abstract:
L'objet de cette thèse est l'analyse des tableaux de donnes à trois indices (voies). On s'intéresse particulièrement à l'analyse de telles données dans le cas ou le troisième indice désigne le temps. Dans la première partie de ce travail, nous présentons quelques unes des méthodes d'analyse des données ternaires. Nous consacrons un chapitre à celles qui intègrent dans leurs approches une structure de contiguïté quelconque. Dans la deuxième partie, nous proposons et développons une nouvelle méthode d'analyse de données évolutives sous contrainte de continuité temporelle. Cette méthode est élaborée en deux étapes indépendantes et complémentaires. Elle est caractérisée par la prise en compte de la structure d'ordre du facteur temps. Nous introduisons et justifions, dans la première étape, la notion de matrice de décalage à gauche ou à droite sur les données. Cette nouvelle notion nous permet de définir une famille d'indices de similarités sur l'ensemble des tableaux "individuels" fournissant ainsi une typologie des individus. C'est ce que l'on appelle analyse statique. Dans la deuxième étape, nous suggérons un nouveau critère qui permet de déterminer le sous-espace de représentation des "parcours individuels" à l'aide des trajectoires. Ce critère est aussi défini de manière à tenir compte de la structure d'ordre du temps, autrement dit la contiguïté temporelle. C'est l'analyse dynamique. Nous concluons cette thèse par le traitement de deux exemples de données évolutives avec notre approche d'une part, et la méthode Statis d'autre part. Enfin, une comparaison des résultats des deux méthodes est proposée
The objective of this thesis is to analyse three index data tables. We are especially interested in the analysis of these data in the case where the third index indicates time. In the first part of this study, we present some of methods used for anlysing three way data. One chapter will be given over to all those that incorporate contiguity structure in their approach. In the second part, we develop a new method of evolutive data analysis under a temporal contiguity constraint. This method is elaborated in two indepedent and complementary steps. First, we introduce the notion of an interval matrix on the left or the right which is used to define a group of similarity indices on individual tables. This is known as static analysis in the second stage, we suggest a new critiria which allows us to determine the subspace where trajectories are represented. This critiria is also defined taking the order structure of time into considerations. We call this dynamic analysis. This thesis concludes by anamysing two examples of evolutive data using two methods, the one we developed and the statis method. A comparison of the obtained results using the two methods is given
APA, Harvard, Vancouver, ISO, and other styles
3

Mansiaux, Yohann. "Analyse d'un grand jeu de données en épidémiologie : problématiques et perspectives méthodologiques." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066272/document.

Full text
Abstract:
L'augmentation de la taille des jeux de données est une problématique croissante en épidémiologie. La cohorte CoPanFlu-France (1450 sujets), proposant une étude du risque d'infection par la grippe H1N1pdm comme une combinaison de facteurs très divers en est un exemple. Les méthodes statistiques usuelles (e.g. les régressions) pour explorer des associations sont limitées dans ce contexte. Nous comparons l'apport de méthodes exploratoires data-driven à celui de méthodes hypothesis-driven.Une première approche data-driven a été utilisée, évaluant la capacité à détecter des facteurs de l'infection de deux méthodes de data mining, les forêts aléatoires et les arbres de régression boostés, de la méthodologie " régressions univariées/régression multivariée" et de la régression logistique LASSO, effectuant une sélection des variables importantes. Une approche par simulation a permis d'évaluer les taux de vrais et de faux positifs de ces méthodes. Nous avons ensuite réalisé une étude causale hypothesis-driven du risque d'infection, avec un modèle d'équations structurelles (SEM) à variables latentes, pour étudier des facteurs très divers, leur impact relatif sur l'infection ainsi que leurs relations éventuelles. Cette thèse montre la nécessité de considérer de nouvelles approches statistiques pour l'analyse des grands jeux de données en épidémiologie. Le data mining et le LASSO sont des alternatives crédibles aux outils conventionnels pour la recherche d'associations. Les SEM permettent l'intégration de variables décrivant différentes dimensions et la modélisation explicite de leurs relations, et sont dès lors d'un intérêt majeur dans une étude multidisciplinaire comme CoPanFlu
The increasing size of datasets is a growing issue in epidemiology. The CoPanFlu-France cohort(1450 subjects), intended to study H1N1 pandemic influenza infection risk as a combination of biolo-gical, environmental, socio-demographic and behavioral factors, and in which hundreds of covariatesare collected for each patient, is a good example. The statistical methods usually employed to exploreassociations have many limits in this context. We compare the contribution of data-driven exploratorymethods, assuming the absence of a priori hypotheses, to hypothesis-driven methods, requiring thedevelopment of preliminary hypotheses.Firstly a data-driven study is presented, assessing the ability to detect influenza infection determi-nants of two data mining methods, the random forests (RF) and the boosted regression trees (BRT), ofthe conventional logistic regression framework (Univariate Followed by Multivariate Logistic Regres-sion - UFMLR) and of the Least Absolute Shrinkage and Selection Operator (LASSO), with penaltyin multivariate logistic regression to achieve a sparse selection of covariates. A simulation approachwas used to estimate the True (TPR) and False (FPR) Positive Rates associated with these methods.Between three and twenty-four determinants of infection were identified, the pre-epidemic antibodytiter being the unique covariate selected with all methods. The mean TPR were the highest for RF(85%) and BRT (80%), followed by the LASSO (up to 78%), while the UFMLR methodology wasinefficient (below 50%). A slight increase of alpha risk (mean FPR up to 9%) was observed for logisticregression-based models, LASSO included, while the mean FPR was 4% for the data-mining methods.Secondly, we propose a hypothesis-driven causal analysis of the infection risk, with a structural-equation model (SEM). We exploited the SEM specificity of modeling latent variables to study verydiverse factors, their relative impact on the infection, as well as their eventual relationships. Only thelatent variables describing host susceptibility (modeled by the pre-epidemic antibody titer) and com-pliance with preventive behaviors were directly associated with infection. The behavioral factors des-cribing risk perception and preventive measures perception positively influenced compliance with pre-ventive behaviors. The intensity (number and duration) of social contacts was not associated with theinfection.This thesis shows the necessity of considering novel statistical approaches for the analysis of largedatasets in epidemiology. Data mining and LASSO are credible alternatives to the tools generally usedto explore associations with a high number of variables. SEM allows the integration of variables des-cribing diverse dimensions and the explicit modeling of their relationships ; these models are thereforeof major interest in a multidisciplinary study as CoPanFlu
APA, Harvard, Vancouver, ISO, and other styles
4

Kolmayer, Elisabeth. "Contribution à l'analyse des processus cognitifs mis en jeu dans l'interrogation d'une base de données documentaires." Paris 5, 1997. http://www.theses.fr/1997PA05H051.

Full text
Abstract:
Une interrogation documentaire confronte la représentation du domaine interroge propre à l'opérateur à celle du système documentaire. C'est cette confrontation qu'aborde ce travail. Pour analyser la représentation du domaine interroge chez l'opérateur, on recense les divers modes d'organisation des connaissances mis en évidence par la psychologie cognitive. On s'appuie pour cela sur les recherches liées aux catégorisations et sur celles liées aux expertises. Une approche expérimentale menée auprès de professionnels en milieu hospitalier étudié le rôle de deux facteurs d'expertise (le niveau de formation et l'expérience professionnelle) sur ces modes d'organisation. La représentation du domaine dans des systèmes documentaires est analysée à travers l'indexation par vedettes matière et par descripteurs. On repère les points de convergence et les différences entre les structurations utilisées dans les thesauri et les répertoires d'autorité matières d'une part, les organisations de connaissances mises enjeu par les usagers d'autre part. Mais dans les interrogations menées sur des systèmes réels, les expertises liées au domaine interroge sont écrasées par les expertises documentaires. Ceci conduit à s'interroger sur la représentation à donner de la situation d'interrogation. La considérer comme la recherche du meilleur appariement entre termes de requête et termes d'indexation ne correspond pas à la conduite des usagers. Il s'agit plutôt, pour eux, d'élaborer une représentation du but de l'interrogation compatible avec les contraintes documentaires. On envisage alors une interrogation documentaire comme un problème de conception auquel s'appliquent les concepts de plans -déclaratifs et procéduraux- et de contraintes. Une approche expérimentale en teste la pertinence dans l'analyse d'interrogations menées par des professionnels et des novices de la documentation, pour un outil documentaire donne : un catalogue informatise de bibliothèque. Quelques conséquences ergonomiques sont abordées
During the information retrieval process, two topic representations have to interact; one comes from the end-user, the other from the information system. We focus on this interaction. Cognitive psychology gives some tools to analyse the user's domain representation, as research on categorizations and about expert and novice knowledge has shown. An experimental approach with nurses and nursing auxiliaries analyses the effects of two expertise factors: experience and training level. We examine the domain representation in information system through indexing (indexing with descriptors and subject headings). We point out agreement and differences between knowledge organization such as in thesauri, in subject headings indexes and in the user's mind. But by interacting with an actual retrieval device, topic expertise plays a very small role; the important factor is the expertise of the own device. We focus then on the modelling of the information retrieval situation; the problem to face, for the end-user, is not to find the + best match ; between query and index terms, but to develop a representation of his information need convenient with the information system constraints. An information retrieval task is then concieved as a design problem to which the concepts of plans declarative and procedural- can be applied. An experiment tests the efficiency of such a modelling, analysing the seeking process of end-users and librarians interacting with an online catalog. Some ergonomic consequences are considered
APA, Harvard, Vancouver, ISO, and other styles
5

Pipien, Sarah. "A la recherche de quasars à grand décalage spectral dans le sondage CFHQSIR." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0376/document.

Full text
Abstract:
J'ai consacré mon travail de thèse à la recherche de quasars à haut redshift dans le sondage Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). L'objectif principal de ce programme est de découvrir des quasars de redshift de l'ordre de z $\sim$ 7 dans les champs larges du CFHTLS (CFHTLS Wide) en utilisant des images réalisées dans le proche infrarouge avec la caméra WIRCam installée au foyer du CFHT. J'ai tout d'abord effectué la calibration photométrique de l'ensemble des données de CFHQSIR. J'ai ensuite étudié la qualité des images ainsi que leur propriété de bruit et leur profondeur. J'ai dans un deuxième temps calculé le nombre de quasars qu'il serait possible de détecter avec CFHQSIR et en ai déduit les contraintes envisageables sur la fonction de luminosité des quasars à z $\sim$ 7. J'ai ensuite procédé à l'identification de candidats quasars parmi les dizaines de milliers de sources que comptent les 130 degrés carrés couvert par CFHQSIR. Des observations de suivi photométriques des candidats ont finalement permis de révéler une cinquantaine d’objets, dont une quinzaine a été sélectionnée pour des observations spectroscopiques au Very Large Telescope (VLT). Celles-ci n’ayant, pour la plupart, pas encore été realisées, la nature exacte de ces sources ne pourra être connue que dans les prochains mois. Pour finir, la dernière partie de ma thèse s’est focalisée sur l’étude de modèles statistiques bayésiens afin de compléter ma méthode de sélection de candidats quasars. Cette étude m'a finalement permis de vérifier que la majorité des objets retenus pour des observations spectroscopiques étaient effectivement les candidats les plus probables
My PhD work is focused on the search for high-redshift quasars in the Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). The main scientific objective of this CFHT Large Program is to search for quasars at redshift z $\sim$ 7 with near-infrared images of the CFHTLS Wide fields acquired with the CFHT WIRCam camera. Firstly, I carried out the photometric calibration of the CFHQSIR images. I performed a detailed analysis of the CFHQSIR data by studying their quality, as well as their noise properties and their depths.Secondly, I computed the number of high-redshift quasars that could be detected with CFHQSIR and the corresponding constraints which could be put on the z $\sim$ 7 quasar luminosity function. Then, I proceeded to the identification of quasar candidates among the many thousands of sources in the 130 square degrees covered by CFHQSIR. Photometric follow-up observations of the candidates revealed about fifty objects, of which fifteen were chosen to be spectroscopically observed with the Very Large Telescope (VLT). Given that this spectroscopic follow-up is not yet completed, the exact nature of these sources will only be known in the coming months. To finish, I applied Bayesian model comparison to my sample in order to complete and consolidate my selection procedure. My candidates were finally classified according to their probability to be a high-redshift quasar. I verified that the majority of the most likely candidates were selected for spectroscopic observations
APA, Harvard, Vancouver, ISO, and other styles
6

Bernard, Luc. "Développement d'un jeu de structures de données et de contraintes sémantiques pour la compilation(séparée) du langage ADA." Doctoral thesis, Universite Libre de Bruxelles, 1985. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213624.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ponzano, Matteo. "Prévisibilité des épisodes méditerranéens de pluies intenses à l'aide d'un jeu de données de 30 ans de prévisions rétrospectives." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30329.

Full text
Abstract:
Le sud-est de la France est une région particulièrement propice à l'occurrence de crues torrentielles associées à des événements de pluies très intenses. Ces événements peuvent causer des pertes matérielles et humaines considérables. Les techniques de prévision de ces pluies exceptionnelles ont nettement progressé et on parvient à représenter des cumuls de pluie très proches de ceux observés. Néanmoins, les incertitudes liées à la prévision de ces événements sont encore importantes et il reste nécessaire d'améliorer la connaissance des processus qui y contribuent. Dans cette thèse, nous nous intéressons à la prévisibilité des épisodes intenses de pluie sur le sud-est de la France. Notre étude repose sur l'utilisation d'une base de prévisions rétrospectives par un système dérivé du modèle de prévision d'ensemble opérationnel PEARP, que l'on dénomme reforecast et d'une profondeur de 30 années. Cette version utilise plusieurs schémas physiques comme pour le système d'origine mais ne peut techniquement disposer des mêmes conditions initiales et de la technique utilisée pour les perturber. Afin de vérifier la capacité du reforecast à représenter les incertitudes du système PEARP, une première partie de l'étude est consacrée à son évaluation. Le fait de ne pas avoir de conditions initiales perturbées entraîne un manque de dispersion du reforecast par rapport à celle de PEARP. On observe cependant une bonne qualité du reforecast pour des seuils de précipitation élevés et des échéances de prévision de quatre jours. Cela montre la possibilité d'extraire d'un tel système de l'information utile pour améliorer ses performances par des techniques de post-traitement ou calibrage. Deux expériences de calibrage sont ensuite menées, l'une basée sur une méthode de quantile mapping et la seconde sur une méthode de régression logistique étendue, appliquées chacune sur le reforecast. Avec la première méthode appliquée membre par membre, on améliore le biais de chacun des membres, mais on n'améliore pas les scores probabilistes. Dans la seconde expérience, le reforecast calibré donne de meilleurs scores quelque soit le seuil de définition de l'événement. Cette technique a donc été appliquée à la prévision opérationnelle, les résultats ne sont pas aussi convaincants que ceux obtenus avec le reforecast mais on observe tout de même une amélioration des prévisions pour les événements les plus intenses. La dernière partie de l'étude a été consacrée à l'utilisation d'une métrique basée sur l'identification de structures cohérentes ou objets de pluie proposée par Wernli et al. (2008). On montre que le facteur prédominant de la performance du modèle réside dans le choix du schéma de convection profonde de la paramétrisation de chaque membre. Dans le cas de PEARP, ces schémas peuvent être regroupés en deux grandes familles, dont la dichotomie se projette significativement sur la performance de la prévision. Le schéma donnant les meilleurs résultats montre la très bonne capacité du modèle à reproduire la distribution du volume de pluie par objet pour les épisodes les plus intenses
The French Mediterranean region is prone to very intense flash-flood events induced by heavy precipitation events (HPEs), which are responsible for considerable human and material damage. Quantitative precipitation forecasts have improved dramatically in recent years towards quasi-realistic rainfall estimations. Nevertheless, the proper estimation of the uncertainty associated with the physical processes representation remains a challenging issue. In this thesis, we address the predictability of intense precipitation in the French Mediterranean region using a 30-year ensemble hindcast dataset based on the ensemble prediction system PEARP, operational at Météo-France. This reforecast system implements the same model error as PEARP, but initial and boundary conditions are differently assessed. In order to assess the ability of the reforecast to represent the errors of the original model, we first verify this reforecast using some verification scores. The lack of initial condition perturbation makes the ensemble spread of the reforecast lower than the PEARP's one. Though probabilistic forecast scores are weak due to these set-up deficiencies, some skills are observed at 4-days lead time and for very large thresholds. However, the duration of the reforecast dataset and the resolution inherited from the operational model seem to provide enough complexity to the rainfall reforecast distributions. Two post-processing methods, based on quantile mapping and extended logistic regression techniques, are applied to the reforecast. The quantile mapping approach reduces the members biases, but the benefits in terms of probabilistic scores are lower than expected. The calibration procedure using the extended logistic regression approach leads to better probabilistic scores, both for low and large precipitation thresholds. The extended logistic regression fitted on the reforecast as a learning dataset is then applied on the operational ensemble system PEARP over a 4-month period. Though calibrated forecasts skills are not globally improved, some high probability thresholds are slightly improved, suggesting such methodology could be finally efficiently tuned. The last part of this thesis further investigates systematic errors of intense precipitation forecasting using the feature-based metric SAL (Wernli et al. (2008)). This spatial metric applied to the reforecast shows that both amplitude and structure components are controlled by deep convection parametrizations. Indeed, between the two main deep convection schemes implemented in the model, one scheme performs better, in particular for the most extreme events. A remarkable aptitude of the model is emphasised as the ranked distribution of the very intense integrated rainfall features is accurately represented by the model
APA, Harvard, Vancouver, ISO, and other styles
8

Charneau, Sébastien. "Approches moléculaires des mécanismes mis en jeu en fin de schizogonie intraérythrocytaire de Plasmodium falciparum (agent du paludisme) par hybridation soustractive suppressive et puces à ADN." Paris, Muséum national d'histoire naturelle, 2005. http://www.theses.fr/2005MNHN0001.

Full text
Abstract:
Le propos de ce travail était d'étudier la différenciation des mérozoi͏̈tes de Plasmodium falciparum à travers son transcriptome. Premièrement, par hybridation soustractive suppressive, nous avons réalisé une banque d'ADNc spécifique de stade. Nous avons identifié 40 gènes exprimés spécifiquement lors de la morphogenèse des mérozoi͏̈tes, certains attendus car codant pour des protéines du mérozoi͏̈te (27,5%), les autres codant pour des protéines aux fonctions inconnues (72,5%). Nous avons caractérisé l'une de ces protéines, la dynamine 2 homologue. Exprimée uniquement lors de la schizogonie, elle pourrait être une molécule-clé de la différenciation des mérozoi͏̈tes et être impliquée dans la division mitochondriale. Deuxièmement, par puces à ADN, nous avons identifié dix gènes, encore non décrits, dont l'expression est significativement modulée par la rottlérine, un inhibiteur de protéines kinases qui stoppe la différenciation des mérozoi͏̈tes conduisant à la lyse du parasite
The aim of this work was to study the differentiation of Plasmodium falciparum merozoite through its transcriptome. First, by suppression subtractive hybridization, we have realised a stage-specific cDNA library. We have identified 40 genes specifically expressed during merozoite morphogenesis, some expected as coding for merozoite proteins (27. 5%), the other coding for proteins of unknown function (72. 5%). We have characterized one of these proteins, the dynamin-2-like. Expressed only during schizogony, it could be a key-molecule of the merozoite differentiation and be involved in mitochondrial division. Second, by microarrays, we have identified 10 genes, as yet unreported, whose expression is significantly modulated by rottlerin, a protein kinase inhibitor that stops merozoite differentiation leading to the parasite lysis
APA, Harvard, Vancouver, ISO, and other styles
9

Gogolashvili, Davit. "Global and local Kernel methods for dataset shift, scalable inference and optimization." Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS363v2.pdf.

Full text
Abstract:
Dans de nombreux problèmes du monde réel, les données de formation et les données de test ont des distributions différentes. Cette situation est communément appelée " décalage de l'ensemble de données ". Les paramètres les plus courants pour le décalage des ensembles de données souvent considérés dans la littérature sont le décalage des covariables et le décalage des cibles. Dans cette thèse, nous étudions les modèles nonparamétriques appliqués au scénario de changement d'ensemble de données. Nous développons un nouveau cadre pour accélérer la régression par processus gaussien. En particulier, nous considérons des noyaux de localisation à chaque point de données pour réduire les contributions des autres points de données éloignés, et nous dérivons le modèle GPR découlant de l'application de cette opération de localisation. Grâce à une série d'expériences, nous démontrons la performance compétitive de l'approche proposée par rapport au GPR complet, à d'autres modèles localisés et aux processus gaussiens profonds. De manière cruciale, ces performances sont obtenues avec des accélérations considérables par rapport au GPR global standard en raison de l'effet de sparsification de la matrice de Gram induit par l'opération de localisation. Nous proposons une nouvelle méthode pour estimer le minimiseur et la valeur minimale d'une fonction de régression lisse et fortement convexe à partir d'observations contaminées par du bruit aléatoire
In many real world problems, the training data and test data have different distributions. The most common settings for dataset shift often considered in the literature are covariate shift and target shift. In this thesis, we investigate nonparametric models applied to the dataset shift scenario. We develop a novel framework to accelerate Gaussian process regression. In particular, we consider localization kernels at each data point to down-weigh the contributions from other data points that are far away, and we derive the GPR model stemming from the application of such localization operation. We propose a new method for estimating the minimizer and the minimum value of a smooth and strongly convex regression function from the observations contaminated by random noise
APA, Harvard, Vancouver, ISO, and other styles
10

Danilo, Céline. "Évaluation des courants de surface océanique au moyen d’un radar à ouverture synthétique." Brest, 2009. http://www.theses.fr/2009BRES2023.

Full text
Abstract:
L’objectif de cette thèse est d’extraire la composante du courant de surface océanique dans l’axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d’ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d’ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu’à étendre cette analyse à de larges scènes observées sous de multiples angles d’incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s’appuie sur l’hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d’estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d’une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d’onde relativement courtes typiques de la mer du vent. L’utilisation pratique de l’information de vent à 10 m de la surface pour estimer la contribution des vagues est évaluée. La méthode d’extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d’incidence constant de 23° à partir d’imagettes ponctuelles réparties sur l’ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des Images de grande taille (400 km par 400 km au minimum) pour lesquelles l’angle d’incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l’effet de l’angle d’incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l’angle d’incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ, Ce résultat est encourageant pour le développement d’une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l’existence de courant côtier fortement variable ne permet plus de faire l’hypothèse de courant uniforme sur la surface d’estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l’ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images CAR pour restituer une information de courant de surface à haute résolution
The aim of this thesis is to extract the radar line-of-sight component of sea surface current from the Doppler shift of a signal received by a synthetic aperture radar on board of ENVISAT. The primary goals of this work are the separation of waves and surface current components to this Doppler shift and, furthermore, the expansion of this analysis to multiple angles of incidence, thereby making it possible to map sea surface currents. This study is limited to vertical polarization and to the radar frequency hand C. Extraction of current signature is based on the assumption that the Doppler shift is caused solely by surface gravity waves and by surface current. Moreover, we initially assume that the current is uniform within the surface of Doppler shift estimation. Under these assumptions, the current component can be deduced from the Doppler shift by substracting the wave component. The latter have relatively short wavelengths, which is typical of wind-sea. Practical use of 10 m wind information for the estimation of waves component is evaluated. A method for extracting surface current information is developed and tested, initially for a constant incidence angle of 23°, on small-sized and isolated ocean images from all over the oceans. A comparison of the monthly average speeds, obtained by on-site current measurements, indicates an RMS error of 0. 35 m/s. As a further step, the same methodology is applied for larger acquisitions (400 km by 400 km minimum) for which the incidence angle ranges from 16 to 42°, This new configuration requires a preliminary analysis of the effect of incidence angle variation on the Doppler shift. We show that an increase of the angle of incidence results in the increase of the relative component of surface current to the Doppler shift, and that the latter also varies according to the direction of wind with respect to the direction of the radar. The estimated surface current component shows a good quantitative correspondence with the same component measured by on-site sensors. This result is encouraging in view of the development of a more systematic technique. Finally, the last part of this work is devoted to a more complex case, namely that of coastal current: here, the hypothesis of a uniform surface current within the estimation surface cannot be maintained anymore due to the great variability of these currents. In this case, we proceed by analyzing maps of Doppler shift of a 1 km resolution. Despite the complexity of this situation, once again, the comparison between Doppler shift-derived velocities and data from tidal current maps indicates a strong potential of SAR images to return high resolution information on surface currents
APA, Harvard, Vancouver, ISO, and other styles
11

Karabernou, Si Mahmoud. "Conception et réalisation d'un processeur pour une architecture cellulaire massivement parallèle intégrée." Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343216.

Full text
Abstract:
Cette thèse présente la conception et la réalisation en VLSI d'un processeur programmable pour une nouvelle architecture MIMD massivement parallèle, intermédiaire entre la connection machine et les hypercubes de processeurs 32 bits. Elle est composée d'une grille 2d de cellules asynchrones communiquant par échanges de messages. Chaque cellule intégré une partie de traitement qui consiste en un petit microprocesseur 8 bits dote d'une mémoire (données et programme), et une partie de routage permettant l'acheminement des messages. A l'issue de l'étude des différents problèmes de communication dans les machines parallèles, nous proposons un routeur original utilisant le principe du Wormhole, et permettant d'acheminer jusqu'à cinq messages en parallèle. Nous décrivons ensuite l'architecture de la partie de traitement, en partant de la définition du jeu d'instructions, du chemin de données et de la partie contrôle jusqu'à la conception au bas niveau. Un premier prototype d'un circuit VLSI de ce processeur a été réalise sur silicium et a permis d'obtenir les mesures des surfaces et des performances
APA, Harvard, Vancouver, ISO, and other styles
12

Schmoll, Laurence. "Concevoir un scénario de jeu vidéo sérieux pour l'enseignement-apprentissage des langues ou comment dominer un oxymore." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAC014.

Full text
Abstract:
Cette recherche étudie l‘utilisation du jeu vidéo pour l’apprentissage des langues étrangères en classe. L’étude porte sur l’intégration de ce support issu de pratiques informelles au contexte formel de la classe de langue. A la fois ludique et à visée d’apprentissage, le ‘jeu vidéo d’apprentissage’ incarne un oxymore, point de tension entre deux pôles, celui du scolaire et celui du jeu. Ce travail se concentre plus spécifiquement sur la notion de ludique. Comment, par le jeu vidéo d’apprentissage, activer une attitude ludique hypothétiquement porteuse d’une implication accrue de l’apprenant, celle-ci menant possiblement à une augmentation et une complexification des productions / interactions en langue étrangère ? Cette recherche s’inscrit dans le cadre du projet Eveil-3D et elle analyse l’accueil fait par un échantillon d’apprenants à deux jeux vidéo d’apprentissage partageant le même scénario mais conçus selon deux modèles différents. Elle a pour objectif d’aboutir tant à un modèle de conception qu’à un modèle de scénario, pensés spécifiquement pour l’apprentissage des langues médiatisées par le jeu vidéo
This research examines the use of video games in foreign language classrooms. It investigates the integration of this digital medium, originating as an informal leisure activity, in a formal language learning classroom setting. The ‘learning video game’, which refers to both the act of learning and the act of play, can be seen as an oxymoron encompassing seriousness as well as fun. This work focuses on the fun aspect. This work is motivated by the following research question: how can the use of a learning video game foster a playful attitude, hypothetically conducive to a greater involvement of the learner, while also potentially leading to increaseand complexification in student foreign language production and interaction? As a part of the Eveil 3D-project, this study analyses reception from a sample of learners to two learning games which have the same scenario but were completed according to two different game design models. The findings provide both a game design model and a scenario template in order to support foreign language learning through the use of the video game
APA, Harvard, Vancouver, ISO, and other styles
13

Bonnot, Titouan. "Réponse du grain de blé à la nutrition azotée et soufrée : étude intégrative des mécanismes moléculaires mis en jeu au cours du développement du grain par des analyses -omiques." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22767/document.

Full text
Abstract:
L’augmentation des rendements est un enjeu majeur chez les céréales. Dans cet objectif, il est nécessaire de maintenir la qualité du grain de blé, qui est principalement déterminée par sa teneur et sa composition en protéines de réserve. En effet, une forte relation négative existe entre le rendement et la teneur en protéines. Par ailleurs, la qualité du grain est fortement influencée par la disponibilité en azote et en soufre dans le sol. La limitation des apports d’intrants azotés à la culture et la carence en soufre récemment observée dans les sols représentent ainsi des difficultés supplémentaires pour maitriser cette qualité. Une meilleure connaissance des mécanismes moléculaires impliqués dans le contrôle du développement du grain et la mise en place de ses réserves protéiques en réponse à la nutrition azotée et soufrée est donc primordiale. L’objectif de cette thèse a ainsi été d’apporter de nouveaux éléments à la compréhension de ces processus de régulation, aujourd’hui peu connus. Pour cela, les approches -omiques sont apparues comme une stratégie de choix pour identifier les acteurs moléculaires mis en jeu. Le protéome nucléaire a été une cible importante dans les travaux menés. L’étude de ces protéines nucléaires a révélé certains régulateurs transcriptionnels qui pourraient être impliqués dans le contrôle de la mise en place des réserves du grain. Dans une approche combinant des données de protéomique, transcriptomique et métabolomique, une vision intégrative de la réponse du grain à la nutrition azotée et soufrée a été obtenue. L’importance d’un apport de soufre dans le contrôle de la balance azote/soufre du grain, déterminante pour la composition du grain en protéines de réserve, a été clairement vérifiée. Parmi les changements observés au niveau du métabolisme cellulaire, certains des gènes affectés par la modification de cette balance pourraient orchestrer l’ajustement de la composition du grain face à des situations de carences nutritionnelles. Ces nouvelles connaissances devraient permettre de mieux maitriser la qualité du grain de blé dans un contexte d’agriculture durable
Improving the yield potential of cereals represents a major challenge. In this context, wheat grain quality has to be maintained. Indeed, grain quality is mainly determined by the content and the composition of storage proteins, but there is a strongly negative correlation between yield and grain protein concentration. In addition, grain quality is strongly influenced by the availability of nitrogen and sulfur in soils. Nowadays, the limitation of nitrogen inputs, and also the sulfur deficiency recently observed in soils represent major difficulties to control the quality. Therefore, understanding of molecular mechanisms controlling grain development and accumulation of storage proteins in response to nitrogen and sulfur supply is a major issue. The objective of this thesis was to create knowledge on the comprehension of these regulatory mechanisms. For this purpose, the best strategy to identify molecular actors involved in these processes consisted of -omics approaches. In our studies, the nuclear proteome was an important target. Among these proteins, we revealed some transcriptional regulators likely to be involved in the control of the accumulation of grain storage compounds. Using an approach combining proteomic, transcriptomic and metabolomic data, the characterization of the integrative grain response to the nitrogen and sulfur supply was obtained. Besides, our studies clearly confirmed the major influence of sulfur in the control of the nitrogen/sulfur balance that determines the grain storage protein composition. Among the changes observed in the cell metabolism, some genes were disturbed by the modification of this balance. Thus these genes could coordinate the adjustment of grain composition in response to nutritional deficiencies. These new results contribute in facing the challenge of maintaining wheat grain quality with sustainable agriculture
APA, Harvard, Vancouver, ISO, and other styles
14

Machado, Daniel. "Improving automated redshift detection in the low signal-to-noise regime for Large Sky Surveys." Thesis, Paris 11, 2015. http://www.theses.fr/2014PA112427.

Full text
Abstract:
Le décalage vers le rouge est la principale mesure par laquelle les astronomes peuvent cartographier l’Univers dans la direction radiale. Afin de tester les hypothèses d’homogénéité et d’isotropie, il est nécessaire de mesurer avec precision le décalage vers le rouge d’un grand nombre de galaxies. De plus, différents modèles cosmologiques ne peuvent être distingués qu’au travers d’une analyse précise des structures à grandes échelles tracées par ces galaxies. Pour obtenir un grand nombre de ces mesures, il est nécessaire de mener d'importantes campagnes d’observations pour établir des relevés couvrant une large portion du ciel. Ces mesures trouvent aussi d’autres applications en astronomie comme par exemple l’analyse du cisaillement gravitationnel, la calibration des mesures photométriques, l’étude des halos de matière noire, de la morphologie des galaxies, des structures à grandes échelles et de la distribution des galaxies.Dans tous les relevés de galaxies, les mesures les plus problématiques sont pour les objets de plus faible luminosité, où le bruit instrumental devient gênant, et qui se trouvent être en général les objets les plus lointains. Pour ces objets, les mesures de décalages vers le rouge peuvent souvent devenir imprécise et, la plupart du temps, elles sont simplement exclues de l’analyse en appliquant des coupures en magnitudes ou en rapport signal à bruit. Cette procédure est une méthode brutale pour séparer les mesures probablement imprécises des mesures fiables.Dans cette thèse, nous développons un algorithme permettant la mesure du décalage vers le rouge des spectres de galaxies dans le regime de faible rapport signal à bruit. La première partie de cette thèse présente les différents concepts relatifs à l’estimation du décalage vers le rouge et au débruitrage de signaux par transformation en ondelettes et filtrage par taux de fausse détection (False Detection Rate, FDR en anglais). La seconde partie détaille comment ces concepts sont mis à contribution dans l’élaboration de l’algorithme Darth Fader (Denoised and Automatic Redshifts THresholded with a False DEtection Rate). Enfin, la dernière partie présente l’application de cet algorithme à des données synthétiques générées à partir du COSMOS Mock Catalogue, mais aussi sur des données réelles tirées du relevé WiggleZ.Nous montrons que Darth Fader fonctionne efficacement à bas rapport signal à bruit étant donné un choix approprié du taux de fausse détection et d’un critère de comptage de traits caractéristiques judicieux. Nous montrons aussi que Darth Fader permet d’éliminer le continuum des spectres à bas rapport signal à bruit, ce qui rend possible l’estimation du décalage vers le rouge par corrélation croisée. Enfin, nous montrons sur des spectres de test issues du relevé WiggleZ que notre algorithme est capable d’analyser une part importante du relevé de façon autonome avec une haute précision, sans nécessiter d'inspection visuelle (alors que les données WiggleZ ont à l’origine été entièrement soumises à l’inspection visuelle). En conclusion, Darth Fader est un algorithme prometteur pour l’analyse des grands relevés de galaxies, en particulier pour exploiter les objets à faible rapport signal à bruit qui sont habituellement simplement ignorés
Summary: Redshift is the primary measure by which astronomers can map the Universe in the radial direction. In order to test the assumptions of homogeneity and isotropy, accurate redshifts of galaxies are needed, and for a great many of them. Additionally different cosmological models can only be distinguished by careful observations of the large scale structure traced by these galaxies. Large sky surveys are the only mechanism by which redshifts for a large number of galaxies can be obtained. Accurate redshift estimation is additionally required for many other fields of astronomy including but not limited to: weak lensing, studies of dark matter haloes, galaxy morphology studies, chemical evolution studies, photometric calibration, and studies of large scale structure and galaxy clustering.Problems exist in all surveys at the dim limit of observation, which usually corresponds to the higher redshift objects in the survey, where noise becomes problematic. Magnitude or signal-to-noise ratio cuts are often employed in order to eliminate potentially troublesome objects; such a procedure is a blunt tool for separating good redshift candidates from ones likely to be inaccurate.In this thesis we develop an algorithm to tackle redshift estimation of galaxy spectra in the low signal-to-noise regime. The first part of this thesis introduces the concepts of denoising, particularly False Detection Rate denoising, wavelet transforms and redshift estimation algorithms. The second part details how these concepts are united into the Darth Fader (Denoised and Automatic Redshifts THresholded with a FAlse DEtection Rate) algorithm. The final parts of this thesis apply the algorithm both to idealised synthetic data generated from the COSMOS Mock Catalogue, and to a subset of real data from the WiggleZ survey.We show that Darth Fader can operate effectively at low signal-to-noise given an appropriate choice of FDR parameter for denoising, and an appropriate feature-counting criterion. We also show that Darth Fader can remove the continua of spectra effectively at low signal-to-noise for the purposes of redshift estimation by cross-correlation. Additionally we show from tests on spectra from the WiggleZ survey that our algorithm has the ability to process a substantial subset of that data without the need for visual inspection (to which the entire WiggleZ spectral survey has been subjected), and to a high degree of accuracy. We conclude that the Darth Fader algorithm has potential to be used in large-sky survey pipelines, particularly where signal-to-noise is expected to be poor
APA, Harvard, Vancouver, ISO, and other styles
15

Awwad, Tarek. "Context-aware worker selection for efficient quality control in crowdsourcing." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI099/document.

Full text
Abstract:
Le crowdsourcing est une technique qui permet de recueillir une large quantité de données d'une manière rapide et peu onéreuse. Néanmoins, La disparité comportementale et de performances des "workers" d’une part et la variété en termes de contenu et de présentation des tâches par ailleurs influent considérablement sur la qualité des contributions recueillies. Par conséquent, garder leur légitimité impose aux plateformes de crowdsourcing de se doter de mécanismes permettant l’obtention de réponses fiables et de qualité dans un délai et avec un budget optimisé. Dans cette thèse, nous proposons CAWS (Context AwareWorker Selection), une méthode de contrôle de la qualité des contributions dans le crowdsourcing visant à optimiser le délai de réponse et le coût des campagnes. CAWS se compose de deux phases, une phase d’apprentissage opérant hors-ligne et pendant laquelle les tâches de l’historique sont regroupées de manière homogène sous forme de clusters. Pour chaque cluster, un profil type optimisant la qualité des réponses aux tâches le composant, est inféré ; la seconde phase permet à l’arrivée d’une nouvelle tâche de sélectionner les meilleurs workers connectés pour y répondre. Il s’agit des workers dont le profil présente une forte similarité avec le profil type du cluster de tâches, duquel la tâche nouvellement créée est la plus proche. La seconde contribution de la thèse est de proposer un jeu de données, appelé CrowdED (Crowdsourcing Evaluation Dataset), ayant les propriétés requises pour, d’une part, tester les performances de CAWS et les comparer aux méthodes concurrentes et d’autre part, pour tester et comparer l’impact des différentes méthodes de catégorisation des tâches de l’historique (c-à-d, la méthode de vectorisation et l’algorithme de clustering utilisé) sur la qualité du résultat, tout en utilisant un jeu de tâches unique (obtenu par échantillonnage), respectant les contraintes budgétaires et gardant les propriétés de validité en terme de dimension. En outre, CrowdED rend possible la comparaison de méthodes de contrôle de qualité quelle que soient leurs catégories, du fait du respect d’un cahier des charges lors de sa constitution. Les résultats de l’évaluation de CAWS en utilisant CrowdED comparés aux méthodes concurrentes basées sur la sélection de workers, donnent des résultats meilleurs, surtout en cas de contraintes temporelles et budgétaires fortes. Les expérimentations réalisées avec un historique structuré en catégories donnent des résultats comparables à des jeux de données où les taches sont volontairement regroupées de manière homogène. La dernière contribution de la thèse est un outil appelé CREX (CReate Enrich eXtend) dont le rôle est de permettre la création, l’extension ou l’enrichissement de jeux de données destinés à tester des méthodes de crowdsourcing. Il propose des modules extensibles de vectorisation, de clusterisation et d’échantillonnages et permet une génération automatique d’une campagne de crowdsourcing
Crowdsourcing has proved its ability to address large scale data collection tasks at a low cost and in a short time. However, due to the dependence on unknown workers, the quality of the crowdsourcing process is questionable and must be controlled. Indeed, maintaining the efficiency of crowdsourcing requires the time and cost overhead related to this quality control to stay low. Current quality control techniques suffer from high time and budget overheads and from their dependency on prior knowledge about individual workers. In this thesis, we address these limitation by proposing the CAWS (Context-Aware Worker Selection) method which operates in two phases: in an offline phase, the correlations between the worker declarative profiles and the task types are learned. Then, in an online phase, the learned profile models are used to select the most reliable online workers for the incoming tasks depending on their types. Using declarative profiles helps eliminate any probing process, which reduces the time and the budget while maintaining the crowdsourcing quality. In order to evaluate CAWS, we introduce an information-rich dataset called CrowdED (Crowdsourcing Evaluation Dataset). The generation of CrowdED relies on a constrained sampling approach that allows to produce a dataset which respects the requester budget and type constraints. Through its generality and richness, CrowdED helps also in plugging the benchmarking gap present in the crowdsourcing community. Using CrowdED, we evaluate the performance of CAWS in terms of the quality, the time and the budget gain. Results shows that automatic grouping is able to achieve a learning quality similar to job-based grouping, and that CAWS is able to outperform the state-of-the-art profile-based worker selection when it comes to quality, especially when strong budget ant time constraints exist. Finally, we propose CREX (CReate Enrich eXtend) which provides the tools to select and sample input tasks and to automatically generate custom crowdsourcing campaign sites in order to extend and enrich CrowdED
APA, Harvard, Vancouver, ISO, and other styles
16

Danilo, Céline. "Évaluation des courants de surface océanique au moyen d'un radar à ouverture synthétique." Phd thesis, Université de Bretagne occidentale - Brest, 2009. http://tel.archives-ouvertes.fr/tel-00560597.

Full text
Abstract:
L'objectif de cette thèse est d'extraire la composante du courant de surface océanique dans l'axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d'ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d'ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu'à étendre cette analyse à de larges scènes observées sous de multiples angles d'incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s'appuie sur l'hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d'estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d'une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d'onde relativement courtes typiques de la mer du vent. L'utilisation pratique de l'information de vent à 10~m de la surface pour estimer la contribution des vagues est évaluée. La méthode d'extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d'incidence constant de 23° à partir d'imagettes ponctuelles réparties sur l'ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des images de grande taille (400 km par 400 km au minimum) pour lesquelles l'angle d'incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l'effet de l'angle d'incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l'angle d'incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ. Ce résultat est encourageant pour le développement d'une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l'existence de courant côtier fortement variable ne permet plus de faire l'hypothèse de courant uniforme sur la surface d'estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l'ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images SAR pour restituer une information de courant de surface à haute résolution.
APA, Harvard, Vancouver, ISO, and other styles
17

Pavaux, Alice. "Inductive, Functional and Non-Linear Types in Ludics." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD092.

Full text
Abstract:
Cette thèse est consacrée à une exploration des types de la ludique. S’inscrivant dans un contexte marqué par la correspondance de Curry–Howard, la ludique est un cadre permettant d’étudier l’aspect dynamique de la logique et de la programmation. Les objets de base, appelés desseins, sont des preuves infinitaires non-typées qui peuvent également être vues comme des stratégies sous l’angle de la sémantique des jeux, et un type ou comportement est un ensemble de desseins se conduisant de la même manière du point de vue de l’interaction. On s’intéresse aux propriétés interactives des comportements. Notre attention se porte en particulier sur les comportements représentant les types de données et de fonctions, et sur les comportements non-linéaires qui permettent la duplication d’objets. Un nouveau résultat de complétude interne pour les unions infinies dévoile la structure des types de données inductifs. Grâce à une analyse des chemins visitables,c’est-à-dire des possibles traces d’exécution, on prouve que les comportements inductifs et fonctionnels sont réguliers, ouvrant la voie pour une caractérisation de MALL en ludique. On montre également qu’un comportement fonctionnel est pur, une propriété garantissant la sûreté du typage, si et seulement si ce n’est pas un type de fonctions prenant des fonctions en argument. Enfin, on pose les bases d’une étude précise de la non-linéarité en ludique en retrouvant une forme de complétude interne et en discutant des chemins visitables
This thesis investigates the types of ludics. Within the context of the Curry–Howard correspondence,l udics is a framework in which the dynamic aspects of both logic and programming can be studied. The basic objects, called designs, are untyped infinitary proofs that can also beseen as strategies from the perspective of game semantics, and a type or behaviour is a set of designs well-behaved with respect to interaction. We are interested in observing the interactive properties of behaviours. Our attention is particularly focused on behaviours representing the types of data and functions, and on non-linear behaviours which allow the duplication of objects. A new internal completeness result for infinite unions unveils the structure of inductive data types. Thanks to an analysis of the visitable paths, i.e., the possible execution traces, we prove that inductive and functional behaviours are regular, paving the way for a characterisation of MALL in ludics. We also show that a functional behaviour is pure, a property ensuring the safety of typing, if and only if it is not a type of functions taking functions as argument. Finally,we set the bases for a precise study of non-linearity in ludics by recovering a form of internal completeness and discussing the visitable paths
APA, Harvard, Vancouver, ISO, and other styles
18

Vermeulen, Mathieu. "Une approche meta-design des learning games pour développer leur usage." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS093.

Full text
Abstract:
Cette thèse en informatique se situe dans le domaine des Learning Games (LG), les jeux sérieux destinés à l’apprentissage. Elle s’intéresse à leur conception, aux outils et modèles pour faciliter celle-ci, et à leur usage. Pour aborder cette problématique, nous nous appuyons sur le meta-design, une approche impliquant fortement les utilisateurs finaux dans la phase de conception mais aussi dans la phase d’usage. Pour la mettre en place avec les enseignants, que nous considérons comme les utilisateurs finaux des LG, nous proposons différentes itérations d’un modèle de LG simple et représentable pour faciliter la conception collaborative de ces EIAH mais aussi leur réingénierie. Après une première itération, la seconde itération propose un modèle baptisé DISC et la méthode de conception associée. Ils ont été testés dans le cadre de la co-conception d’un LG utilisé par des enseignants du supérieur dans le contexte d’un MOOC et utilisé comme une activité d’un cours en présentiel. Pour impliquer les enseignants dans la phase d’usage, nous proposons d’articuler ce modèle avec un outil de visualisation des traces des étudiants pour détecter des séquences d’usage problématiques et ainsi faciliter le processus de réingénierie, les visualisations permettant l’analyse des données recueillies. Pour mener ce travail de recherche, nous avons choisi de travailler avec la méthode THEDRE qui propose un cycle de recherche itératif soutenu par la remontée d’indicateurs évaluant le processus de recherche. Cette amélioration continue, appuyée sur les expérimentations menées, a permis de valider nos propositions quant au meta-design pour les learning games
This thesis in computer science is in the field of Technology Enhanced Learning (TEL) and more specifically in the field of Learning Games (LG), serious games dedicated to learning. It deals with their design, tools and models to facilitate it, and their use. To tackle this problem, we use the meta-design, an approach aiming to strongly involve the end users in the design stage but also in the use stage. To implement this approach with teachers, whom we consider as end users of LG, we propose different iterations of a simple and representable LG model to facilitate the collaborative design of these TELs, but also their reengineering. After a first iteration, the second iteration propose a model named DISC and the associated design method. They were tested in the co-design of a learning game used by teachers of higher education in the context of a MOOC and as an additional activity of a course. To involve teachers in the use stage, we propose to articulate this model with a learners’ traces visualizations tool to detect problematic pattern and, thus, facilitate the reengineering process of LG, the visualizations allowing traces analysis collected during the use stage. To carry out this research work, we chose to work with the THEDRE method which proposes an iterative research cycle supported by the feedback of indicators evaluating the process throughout the method. This continuous improvement, supported by the experiments, allow us to validate our propositions about the meta-design for the learning games
APA, Harvard, Vancouver, ISO, and other styles
19

Vaquette, Geoffrey. "Reconnaissance robuste d'activités humaines par vision." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS090.

Full text
Abstract:
Cette thèse porte sur la segmentation supervisée d'un flux vidéo en fragments correspondant à des activités de la vie quotidienne. En différenciant geste, action et activité, cette thèse s'intéresse aux activités à haut niveau sémantique telles que "Cuisiner" ou "Prendre son repas" par opposition à des actions comme "Découper un aliment". Pour cela, elle s'appuie sur l'algorithme DOHT (Deeply Optimized Hough Transform), une méthode de l'état de l'art utilisant un paradigme de vote (par transformée de Hough). Dans un premier temps, nous adaptons l'algorithme DOHT pour fusionner les informations en provenance de différents capteurs à trois niveaux différents de l'algorithme. Nous analysons l'effet de ces trois niveaux de fusion et montrons son efficacité par une évaluation sur une base de données composée d'actions de la vie quotidienne. Ensuite, une étude des jeux de données existant est menée. Constatant le manque de vidéos adaptées à la segmentation et classification (détection) d'activités à haut niveau sémantique, une nouvelle base de données est proposée. Enregistrée dans un environnement réaliste et dans des conditions au plus proche de l'application finale, elle contient des vidéos longues et non découpées adaptées à un contexte de détection. Dans un dernier temps, nous proposons une approche hiérarchique à partir d'algorithmes DOHT pour reconnaître les activités à haut niveau sémantique. Cette approche à deux niveaux décompose le problème en une détection non-supervisée d'actions pour ensuite détecter les activités désirées
This thesis focuses on supervised activity segmentation from video streams within application context of smart homes. Three semantic levels are defined, namely gesture, action and activity, this thesis focuses mainly on the latter. Based on the Deeply Optimized Hough Transform paridigm, three fusion levels are introduced in order to benefit from various modalities. A review of existing action based datasets is presented and the lack of activity detection oriented database is noticed. Then, a new dataset is introduced. It is composed of unsegmented long time range daily activities and has been recorded in a realistic environment. Finaly, a hierarchical activity detection method is proposed aiming to detect high level activities from unsupervised action detection
APA, Harvard, Vancouver, ISO, and other styles
20

Chamekh, Rabeb. "Stratégies de jeux pour quelques problèmes inverses." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4103.

Full text
Abstract:
L’objectif de ce travail de thèse est la résolution du problème de couplage de complétion des données et identification des paramètres. Le problème de Cauchy est un problème de détermination des mesures sur une partie inaccessible du bord d’un solide à partir des données surabondantes sur le bord. L’identification des paramètres est un problème de détermination du paramètre de système. Ces deux problèmes sont connus pour être mal posés au sens d’Hadamard. Le mémoire de thèse se divise en quatre parties. La première partie est consacrée à une étude bibliographique. Dans le deuxième chapitre, nous avons appliqué la théorie des jeux pour la résolution du problème de couplage de complétion des données et identification de conductivité en électrocardiographie. On a évoqué la question d ’identifiabilité de la conductivité. On a montré l’unicité de ce paramètre en utilisant seulement les données de Cauchy sur une partie du bord. Nos expériences numériques ciblent les applications médicales en électrocardiographie. Nous avons appliqué notre procédure dans un thorax bidimensionnel et tridimensionnel. La troisième partie est consacré à la résolution du problème de couplage en élasticité linéaire en appliquant la stratégie des jeux. Une étude numérique a été effectué où on a considéré une configuration particulière pour assurer l’identifiabilité des paramètres. Dans la dernière partie, on s’intéresse à un problème de thermoélasticité. Il s’agit de coupler deux disciplines différentes, la thermique et l’élasticité. Le problème de l’identification de fissure est une application naturelle dans ce cas
In this PHD-Thesis, we focused on solving the coupling problem of data completion and parameter identification. The Cauchy problem is a problem of identification of boundary condition on a part of the boundary from overabundant data on the remaining part. Parameter identification is a problem of the system parameter. These two problems are known to be ill-posed in the sense of Hadamard. This Thesis is divided into four parts. The first part is dedicated to a bibliography study. In the second chapter, we applied the game theory on the resolution of the coupling problem of data completion and the conductivity identification in electrocardiography. We talked about the identifiability of the conductivity. We have shown the uniqueness of this parameter using only the Cauchy data on a part of the edge. Our numerical experiments target medical applications in electrocardiography. We applied our procedure in a two-dimensional and three-dimensional thorax. The third part is dedicated to the resolution of the coupling problem in linear elasticity applying the game theory. A numerical study has been done where we considered a particular configuration to ensure the parameters identifiability. In the last part, we are interested in a problem of thermoelasticity. It’s about coupling two different disciplines : thermal and elasticity. The problem of crack identification is a natural application in this case
APA, Harvard, Vancouver, ISO, and other styles
21

Paudel, Subodh. "Methodology to estimate building energy consumption using artificial intelligence." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0237/document.

Full text
Abstract:
Les normes de construction pour des bâtiments de plus en plus économes en énergie (BBC) nécessitent une attention particulière. Ces normes reposent sur l’amélioration des performances thermiques de l’enveloppe du bâtiment associé à un effet capacitif des murs augmentant la constante de temps du bâtiment. La prévision de la demande en énergie de bâtiments BBC est plutôt complexe. Ce travail aborde cette question par la mise en œuvre d’intelligence artificielle(IA). Deux approches de mise en œuvre ont été proposées : « all data » et « relevant data ». L’approche « all data » utilise la totalité de la base de données. L’approche « relevant data » consiste à extraire de la base de données un jeu de données représentant le mieux possible les prévisions météorologiques en incluant les phénomènes inertiels. Pour cette extraction, quatre modes de sélection ont été étudiés : le degré jour (HDD), une modification du degré jour (mHDD) et des techniques de reconnaissance de chemin : distance de Fréchet (FD) et déformation temporelle dynamique (DTW). Quatre techniques IA sont mises en œuvre : réseau de neurones (ANN), machine à support de vecteurs (SVM), arbre de décision (DT) et technique de forêt aléatoire (RF). Dans un premier temps, six bâtiments ont été numériquement simulés (de consommation entre 86 kWh/m².an à 25 kWh/m².an) : l’approche « relevant data » reposant sur le couple (DTW, SVM) donne les prévisions avec le moins d’erreur. L’approche « relevant data » (DTW, SVM) sur les mesures du bâtiment de l’Ecole des Mines de Nantes reste performante
High-energy efficiency building standards (as Low energy building LEB) to improve building consumption have drawn significant attention. Building standards is basically focused on improving thermal performance of envelope and high heat capacity thus creating a higher thermal inertia. However, LEB concept introduces alarge time constant as well as large heat capacity resulting in a slower rate of heat transfer between interior of building and outdoor environment. Therefore, it is challenging to estimate and predict thermal energy demand for such LEBs. This work focuses on artificial intelligence (AI) models to predict energy consumptionof LEBs. We consider two kinds of AI modeling approaches: “all data” and “relevant data”. The “all data” uses all available data and “relevant data” uses a small representative day dataset and addresses the complexity of building non-linear dynamics by introducing past day climatic impacts behavior. This extraction is based on either simple physical understanding: Heating Degree Day (HDD), modified HDD or pattern recognition methods: Frechet Distance and Dynamic Time Warping (DTW). Four AI techniques have been considered: Artificial Neural Network (ANN), Support Vector Machine (SVM), Boosted Ensemble Decision Tree (BEDT) and Random forest (RF). In a first part, numerical simulations for six buildings (heat demand in the range [25 – 85 kWh/m².yr]) have been performed. The approach “relevant data” with (DTW, SVM) shows the best results. Real data of the building “Ecole des Mines de Nantes” proves the approach is still relevant
APA, Harvard, Vancouver, ISO, and other styles
22

Yang, Wenlu. "Personalized physiological-based emotion recognition and implementation on hardware." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS064.

Full text
Abstract:
Cette thèse étudie la reconnaissance des émotions à partir de signaux physiologiques dans le contexte des jeux vidéo et la faisabilité de sa mise en œuvre sur un système embarqué. Les défis suivants sont abordés : la relation entre les états émotionnels et les réponses physiologiques dans le contexte du jeu, les variabilités individuelles des réponses psycho-physiologiques et les problèmes de mise en œuvre sur un système embarqué. Les contributions majeures de cette thèse sont les suivantes. Premièrement, nous construisons une base de données multimodale dans le cadre de l'Affective Gaming (DAG). Cette base de données contient plusieurs mesures concernant les modalités objectives telles que les signaux physiologiques de joueurs et des évaluations subjectives sur des phases de jeu. A l'aide de cette base, nous présentons une série d'analyses effectuées pour la détection des moments marquant émotionnellement et la classification des émotions à l'aide de diverses méthodes d'apprentissage automatique. Deuxièmement, nous étudions la variabilité individuelle de la réponse émotionnelle et proposons un modèle basé sur un groupe de joueurs déterminé par un clustering selon un ensemble de traits physiologiques pertinents. Nos travaux mettent en avant le fait que le modèle proposé, basé sur un tel groupe personnalisé, est plus performant qu'un modèle général ou qu'un modèle spécifique à un utilisateur. Troisièmement, nous appliquons la méthode proposée sur un système ARM A9 et montrons que la méthode proposée peut répondre à l'exigence de temps de calcul
This thesis investigates physiological-based emotion recognition in a digital game context and the feasibility of implementing the model on an embedded system. The following chanllenges are addressed: the relationship between emotional states and physiological responses in the game context, individual variabilities of the pschophysiological responses and issues of implementation on an embedded system. The major contributions of this thesis are : Firstly, we construct a multi-modal Database for Affective Gaming (DAG). This database contains multiple measurements concerning objective modalities: physiological signals (ECG, EDA, EMG, Respiration), screen recording, and player's face recording, as well as subjective assessments on both game event and match level. We presented statistics of the database and run a series of analysis on issues such as emotional moment detection and emotion classification, influencing factors of the overall game experience using various machine learning methods. Secondly, we investigate the individual variability in the collected data by creating an user-specific model and analyzing the optimal feature set for each individual. We proposed a personalized group-based model created the similar user groups by using the clustering techniques based on physiological traits deduced from optimal feature set. We showed that the proposed personalized group-based model performs better than the general model and user-specific model. Thirdly, we implemente the proposed method on an ARM A9 system and showed that the proposed method can meet the requirement of computation time
APA, Harvard, Vancouver, ISO, and other styles
23

Ouji, Karima. "Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00923192.

Full text
Abstract:
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
APA, Harvard, Vancouver, ISO, and other styles
24

Le, Gall Caroline. "Algorithmes de détection de ruptures et statistiques spatiales : applications au diagnostic de défaillances dans un procédé de fabrication." Toulouse 3, 2002. http://www.theses.fr/2002TOU30176.

Full text
Abstract:
L'amélioration continue du rendement d'une chaîne de fabrication, c'est-à-dire du rapport du nombre d'unités fonctionnelles sur le nombre total d'unités produites, constitue un enjeu important pour la compétitivité de l'outil de production. Dans le contexte de la fabrication de circuits intégrés, l'introduction de nouvelles technologies de plus en plus complexes rend les outils statistiques traditionnellement utilisés insuffisants pour la prévention de toutes les défaillances du procédé. Dès lors, de nouvelles techniques statistiques sont développées pour améliorer ou remplacer certains outils existants mais aussi pour en créer de nouveaux. Ainsi, un nouveau processus d'amélioration du rendement est proposé. Lorsqu'une baisse du rendement est observée, il s'agit dans un premier temps de la caractériser. Cette caractérisation découle d'une analyse spatiale des plaquettes de silicium sur lesquelles sont produits les circuits intégrés. .
The continuous improvement of the yield of a production line is a significant goal for the competitiveness of the facility. In the context of integrated circuit manufacturing, the introduction of new increasingly complex technologies makes the statistical tools traditionally used insufficient to prevent process failures. Consequently, new statistical techniques have been developed to improve or replace some existing tools and also to form some new ones. Thus, an improvement process is proposed. When a decrease of yield is observed, it first needs to be characterized. The characterization is achieved by a spatial analysis of the silicon wafers on which the integrated circuits are manufactured. . .
APA, Harvard, Vancouver, ISO, and other styles
25

Yang, Wenlu. "Personalized physiological-based emotion recognition and implementation on hardware." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS064.pdf.

Full text
Abstract:
Cette thèse étudie la reconnaissance des émotions à partir de signaux physiologiques dans le contexte des jeux vidéo et la faisabilité de sa mise en œuvre sur un système embarqué. Les défis suivants sont abordés : la relation entre les états émotionnels et les réponses physiologiques dans le contexte du jeu, les variabilités individuelles des réponses psycho-physiologiques et les problèmes de mise en œuvre sur un système embarqué. Les contributions majeures de cette thèse sont les suivantes. Premièrement, nous construisons une base de données multimodale dans le cadre de l'Affective Gaming (DAG). Cette base de données contient plusieurs mesures concernant les modalités objectives telles que les signaux physiologiques de joueurs et des évaluations subjectives sur des phases de jeu. A l'aide de cette base, nous présentons une série d'analyses effectuées pour la détection des moments marquant émotionnellement et la classification des émotions à l'aide de diverses méthodes d'apprentissage automatique. Deuxièmement, nous étudions la variabilité individuelle de la réponse émotionnelle et proposons un modèle basé sur un groupe de joueurs déterminé par un clustering selon un ensemble de traits physiologiques pertinents. Nos travaux mettent en avant le fait que le modèle proposé, basé sur un tel groupe personnalisé, est plus performant qu'un modèle général ou qu'un modèle spécifique à un utilisateur. Troisièmement, nous appliquons la méthode proposée sur un système ARM A9 et montrons que la méthode proposée peut répondre à l'exigence de temps de calcul
This thesis investigates physiological-based emotion recognition in a digital game context and the feasibility of implementing the model on an embedded system. The following chanllenges are addressed: the relationship between emotional states and physiological responses in the game context, individual variabilities of the pschophysiological responses and issues of implementation on an embedded system. The major contributions of this thesis are : Firstly, we construct a multi-modal Database for Affective Gaming (DAG). This database contains multiple measurements concerning objective modalities: physiological signals (ECG, EDA, EMG, Respiration), screen recording, and player's face recording, as well as subjective assessments on both game event and match level. We presented statistics of the database and run a series of analysis on issues such as emotional moment detection and emotion classification, influencing factors of the overall game experience using various machine learning methods. Secondly, we investigate the individual variability in the collected data by creating an user-specific model and analyzing the optimal feature set for each individual. We proposed a personalized group-based model created the similar user groups by using the clustering techniques based on physiological traits deduced from optimal feature set. We showed that the proposed personalized group-based model performs better than the general model and user-specific model. Thirdly, we implemente the proposed method on an ARM A9 system and showed that the proposed method can meet the requirement of computation time
APA, Harvard, Vancouver, ISO, and other styles
26

Kesiman, Made Windu Antara. "Document image analysis of Balinese palm leaf manuscripts." Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS013/document.

Full text
Abstract:
Les collections de manuscrits sur feuilles de palmier sont devenues une partie intégrante de la culture et de la vie des peuples de l'Asie du Sud-Est. Avec l’augmentation des projets de numérisation des documents patrimoniaux à travers le monde, les collections de manuscrits sur feuilles de palmier ont finalement attiré l'attention des chercheurs en analyse d'images de documents (AID). Les travaux de recherche menés dans le cadre de cette thèse ont porté sur les manuscrits d'Indonésie, et en particulier sur les manuscrits de Bali. Nos travaux visent à proposer des méthodes d’analyse pour les manuscrits sur feuilles de palmier. En effet, ces collections offrent de nouveaux défis car elles utilisent, d’une part, un support spécifique : les feuilles de palmier, et d’autre part, un langage et un script qui n'ont jamais été analysés auparavant. Prenant en compte, le contexte et les conditions de stockage des collections de manuscrits sur feuilles de palmier à Bali, nos travaux ont pour objectif d’apporter une valeur ajoutée aux manuscrits numérisés en développant des outils pour analyser, translittérer et indexer le contenu des manuscrits sur feuilles de palmier. Ces systèmes rendront ces manuscrits plus accessibles, lisibles et compréhensibles à un public plus large ainsi que pour les chercheurs et les étudiants du monde entier. Cette thèse a permis de développer un système d’AID pour les images de documents sur feuilles de palmier, comprenant plusieurs tâches de traitement d'images : numérisation du document, construction de la vérité terrain, binarisation, segmentation des lignes de texte et des glyphes, la reconnaissance des glyphes et des mots, translittération et l’indexation de document. Nous avons ainsi créé le premier corpus et jeu de données de manuscrits balinais sur feuilles de palmier. Ce corpus est actuellement disponible pour les chercheurs en AID. Nous avons également développé un système de reconnaissance des glyphes et un système de translittération automatique des manuscrits balinais. Cette thèse propose un schéma complet de reconnaissance de glyphes spatialement catégorisé pour la translittération des manuscrits balinais sur feuilles de palmier. Le schéma proposé comprend six tâches : la segmentation de lignes de texte et de glyphes, un processus de classification de glyphes, la détection de la position spatiale pour la catégorisation des glyphes, une reconnaissance globale et catégorisée des glyphes, la sélection des glyphes et la translittération basée sur des règles phonologiques. La translittération automatique de l'écriture balinaise nécessite de mettre en œuvre des mécanismes de représentation des connaissances et des règles phonologiques. Nous proposons un système de translittération sans segmentation basée sur la méthode LSTM. Celui-ci a été testé sur des données réelles et synthétiques. Il comprend un schéma d'apprentissage à deux niveaux pouvant s’appliquer au niveau du mot et au niveau de la ligne de texte
The collection of palm leaf manuscripts is an important part of Southeast Asian people’s culture and life. Following the increasing of the digitization projects of heritage documents around the world, the collection of palm leaf manuscripts in Southeast Asia finally attracted the attention of researchers in document image analysis (DIA). The research work conducted for this dissertation focused on the heritage documents of the collection of palm leaf manuscripts from Indonesia, especially the palm leaf manuscripts from Bali. This dissertation took part in exploring DIA researches for palm leaf manuscripts collection. This collection offers new challenges for DIA researches because it uses palm leaf as writing media and also with a language and script that have never been analyzed before. Motivated by the contextual situations and real conditions of the palm leaf manuscript collections in Bali, this research tried to bring added value to digitized palm leaf manuscripts by developing tools to analyze, to transliterate and to index the content of palm leaf manuscripts. These systems aim at making palm leaf manuscripts more accessible, readable and understandable to a wider audience and, to scholars and students all over the world. This research developed a DIA system for document images of palm leaf manuscripts, that includes several image processing tasks, beginning with digitization of the document, ground truth construction, binarization, text line and glyph segmentation, ending with glyph and word recognition, transliteration and document indexing and retrieval. In this research, we created the first corpus and dataset of the Balinese palm leaf manuscripts for the DIA research community. We also developed the glyph recognition system and the automatic transliteration system for the Balinese palm leaf manuscripts. This dissertation proposed a complete scheme of spatially categorized glyph recognition for the transliteration of Balinese palm leaf manuscripts. The proposed scheme consists of six tasks: the text line and glyph segmentation, the glyph ordering process, the detection of the spatial position for glyph category, the global and categorized glyph recognition, the option selection for glyph recognition and the transliteration with phonological rules-based machine. An implementation of knowledge representation and phonological rules for the automatic transliteration of Balinese script on palm leaf manuscript is proposed. The adaptation of a segmentation-free LSTM-based transliteration system with the generated synthetic dataset and the training schemes at two different levels (word level and text line level) is also proposed
APA, Harvard, Vancouver, ISO, and other styles
27

Dhouib, Sofiane. "Contributions to unsupervised domain adaptation : Similarity functions, optimal transport and theoretical guarantees." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI117.

Full text
Abstract:
L'explosion de la quantité de données produites chaque jour a fait de l' l'Apprentissage Automatique un outil vital pour extraire des motifs de haute valeur à partir de celles-là. Concrètement, un algorithme d'apprentissage automatique apprend de tels motifs après avoir été entraîné sur un jeu de données appelé données d'entraînement, et sa performance est évaluée sur échantillon différent, appelé données de test. L'Adaptation de Domaine est une branche de l'apprentissage automatique, dans lequel les données d'entraînement et de test ne sont plus supposées provenir de la même distribution de probabilité. Dans ce cas, les deux distributions des données d'entraînement et de test correspondent respectivement aux domaines source et cible. Nos contributions se focalisent sur trois aspects théoriques en relation avec l'adaptation de domaine pour les tâches de classification. Le premier est l'apprentissage avec des fonctions de similarité, qui traite les algorithmes de classification basés sur la comparaison d'une instance à d'autres exemples pour décider sa classe. Le deuxième est la classification à vaste marge qui concerne l'apprentissage d'un classifieur maximisant la séparation entre classes. Le troisième aspect est le Transport Optimal qui formalise un principe d'effort minimal pour le transport de masses de probabilité entre distributions. Au début de cette thèse, nous nous intéressions à l'apprentissage avec ce que l'on appelle fonctions de similarités (epsilon,gamma,tau)-bonnes dans le cadre de l'adaptation de domaine, puisque ces fonctions ont été introduites dans la littérature dans le cadre classique de l'apprentissage supervisé. C'est le sujet de notre première contribution dans laquelle nous étudions théoriquement la performance d'une fonction de similarité sur une distribution cible, étant donné qu'elle est adéquate pour la source. Puis, nous abordons plus généralement le thème de la classification à vaste marge pour l'adaptation de domaine, avec des hypothèses de départ plus faibles que celles adoptées dans la première contribution. Dans ce contexte, nous proposons une nouvelle étude théorique et un algorithme d'adaptation de domaine, ce qui constitue notre deuxième contribution. Nous dérivons de nouvelles bornes prenant en compte la marge de classification dans le domaine cible, que nous convexifions en tirant profit de la théorie du Transport Optimal, en vue de dériver un algorithme d'adaptation de domaine présentant une variation adversariale du problème classique de Kantorovitch. Finalement, nous dédions notre dernière contribution aux variations adversariales ou minimax du problème du transport optimal, où nous démontrons l'adaptabilité de notre approche
The surge in the quantity of data produced nowadays made of Machine Learning, a subfield of Artificial Intelligence, a vital tool used to extract valuable patterns from them and allowed it to be integrated into almost every aspect of our everyday activities. Concretely, a machine learning algorithm learns such patterns after being trained on a dataset called the training set, and its performance is assessed on a different set called the testing set. Domain Adaptation is an active research area of machine learning, in which the training and testing sets are not assumed to stem from the same probability distribution, as opposed to Supervised Learning. In this case, the two distributions generating the training and testing data correspond respectively to the source and target domains. Our contributions focus on three theoretical aspects related to domain adaptation for classification tasks. The first one is learning with similarity functions, which deals with classification algorithms based on comparing an instance to other examples in order to decide its class. The second is large-margin classification, which concerns learning classifiers that maximize the separation between classes. The third is Optimal Transport that formalizes the principle of least effort for transporting probability masses between two distributions. At the beginning of the thesis, we were interested in learning with so-called (epsilon,gamma,tau)-good similarity functions in the domain adaptation framework, since these functions have been introduced in the literature in the classical framework of supervised learning. This is the subject of our first contribution in which we theoretically study the performance of a similarity function on a target distribution, given it is suitable for the source one. Then, we tackle the more general topic of large-margin classification in domain adaptation, with weaker assumptions than those adopted in the first contribution. In this context, we proposed a new theoretical study and a domain adaptation algorithm, which is our second contribution. We derive novel bounds taking the classification margin on the target domain into account, that we convexify by leveraging the appealing Optimal Transport theory, in order to derive a domain adaptation algorithm with an adversarial variation of the classic Kantorovich problem. Finally, after noticing that our adversarial formulation can be generalized to include several other cases of interest, we dedicate our last contribution to adversarial or minimax variations of the optimal transport problem, where we demonstrate the versatility of our approach
APA, Harvard, Vancouver, ISO, and other styles
28

Léonardon, Mathieu. "Décodage de codes polaires sur des architectures programmables." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0399/document.

Full text
Abstract:
Les codes polaires constituent une classe de codes correcteurs d’erreurs inventés récemment qui suscite l’intérêt des chercheurs et des industriels, comme en atteste leur sélection pour le codage des canaux de contrôle dans la prochaine génération de téléphonie mobile (5G). Un des enjeux des futurs réseaux mobiles est la virtualisation des traitements numériques du signal, et en particulier les algorithmes de codage et de décodage. Afin d’améliorer la flexibilité du réseau, ces algorithmes doivent être décrits de manière logicielle et être déployés sur des architectures programmables. Une telle infrastructure de réseau permet de mieux répartir l’effort de calcul sur l’ensemble des noeuds et d’améliorer la coopération entre cellules. Ces techniques ont pour but de réduire la consommation d’énergie, d’augmenter le débit et de diminuer la latence des communications. Les travaux présentés dans ce manuscrit portent sur l’implémentation logicielle des algorithmes de décodage de codes polaires et la conception d’architectures programmables spécialisées pour leur exécution.Une des caractéristiques principales d’une chaîne de communication mobile est l’instabilité du canal de communication. Afin de remédier à cette instabilité, des techniques de modulations et de codages adaptatifs sont utilisées dans les normes de communication.Ces techniques impliquent que les décodeurs supportent une vaste gamme de codes : ils doivent être génériques. La première contribution de ces travaux est l’implémentation logicielle de décodeurs génériques des algorithmes de décodage "à Liste" sur des processeurs à usage général. En plus d’être génériques, les décodeurs proposés sont également flexibles.Ils permettent en effet des compromis entre pouvoir de correction, débit et latence de décodage par la paramétrisation fine des algorithmes. En outre, les débits des décodeurs proposés atteignent les performances de l’état de l’art et, dans certains cas, les dépassent.La deuxième contribution de ces travaux est la proposition d’une nouvelle architecture programmable performante spécialisée dans le décodage de codes polaires. Elle fait partie de la famille des processeurs à jeu d’instructions dédiés à l’application. Un processeur de type RISC à faible consommation en constitue la base. Cette base est ensuite configurée,son jeu d’instructions est étendu et des unités matérielles dédiées lui sont ajoutées. Les simulations montrent que cette architecture atteint des débits et des latences proches des implémentations logicielles de l’état de l’art sur des processeurs à usage général. La consommation énergétique est réduite d’un ordre de grandeur. En effet, lorsque l’on considère le décodage par annulation successive d’un code polaire (1024,512), l’énergie nécessaire par bit décodé est de l’ordre de 10 nJ sur des processeurs à usage général contre 1 nJ sur les processeurs proposés.La troisième contribution de ces travaux est également une architecture de processeur à jeu d’instructions dédié à l’application. Elle se différencie de la précédente par l’utilisation d’une méthodologie de conception alternative. Au lieu d’être basée sur une architecture de type RISC, l’architecture du processeur proposé fait partie de la classe des architectures déclenchées par le transport. Elle est caractérisée par une plus grande modularité qui permet d’améliorer très significativement l’efficacité du processeur. Les débits mesurés sont alors supérieurs à ceux obtenus sur les processeurs à usage général. La consommation énergétique est réduite à environ 0.1 nJ par bit décodé pour un code polaire (1024,512) avec l’algorithme de décodage par annulation successive. Cela correspond à une réduction de deux ordres de grandeur en comparaison de la consommation mesurée sur des processeurs à usage général
Polar codes are a recently invented class of error-correcting codes that are of interest to both researchers and industry, as evidenced by their selection for the coding of control channels in the next generation of cellular mobile communications (5G). One of the challenges of future mobile networks is the virtualization of digital signal processing, including channel encoding and decoding algorithms. In order to improve network flexibility, these algorithms must be written in software and deployed on programmable architectures.Such a network infrastructure allow dynamic balancing of the computational effort across the network, as well as inter-cell cooperation. These techniques are designed to reduce energy consumption, increase through put and reduce communication latency. The work presented in this manuscript focuses on the software implementation of polar codes decoding algorithms and the design of programmable architectures specialized in their execution.One of the main characteristics of a mobile communication chain is that the state of communication channel changes over time. In order to address issue, adaptive modulationand coding techniques are used in communication standards. These techniques require the decoders to support a wide range of codes : they must be generic. The first contribution of this work is the software implementation of generic decoders for "List" polar decoding algorithms on general purpose processors. In addition to their genericity, the proposed decoders are also flexible. Trade-offs between correction power, throughput and decodinglatency are enabled by fine-tuning the algorithms. In addition, the throughputs of the proposed decoders achieve state-of-the-art performance and, in some cases, exceed it.The second contribution of this work is the proposal of a new high-performance programmable architecture specialized in polar code decoding. It is part of the family of Application Specific Instruction-set Processors (ASIP). The base architecture is a RISC processor. This base architecture is then configured, its instruction set is extended and dedicated hardware units are added. Simulations show that this architecture achieves through puts and latencies close to state-of-the-art software implementations on generalpurpose processors. Energy consumption is reduced by an order of magnitude. The energy required per decoded bit is about 10 nJ on general purpose processors compared to 1nJ on proposed processors when considering the Successive Cancellation (SC) decoding algorithm of a polar code (1024,512).The third contribution of this work is also the design of an ASIP architecture. It differs from the previous one by the use of an alternative design methodology. Instead of being based on a RISC architecture, the proposed processor architecture is part of the classof Transport Triggered Architectures (TTA). It is characterized by a greater modularity that allows to significantly improve the efficiency of the processor. The measured flowrates are then higher than those obtained on general purpose processors. The energy consumption is reduced to about 0.1 nJ per decoded bit for a polar code (1024,512) with the SC decoding algorithm. This corresponds to a reduction of two orders of magnitude compared to the consumption measured on general purpose processors
APA, Harvard, Vancouver, ISO, and other styles
29

Ouellet, Sébastien. "Environnement d’adaptation pour un jeu sérieux." Thèse, 2016. http://hdl.handle.net/1866/16179.

Full text
Abstract:
Nous avons développé un jeu sérieux afin d’enseigner aux utilisateurs à dessiner des diagrammes de Lewis. Nous l’avons augmenté d’un environnement pouvant enregistrer des signaux électroencéphalographiques, les expressions faciales, et la pupille d’un utilisateur. Le but de ce travail est de vérifier si l’environnement peut permettre au jeu de s’adapter en temps réel à l’utilisateur grâce à une détection automatique du besoin d’aide de l’utilisateur ainsi que si l’utilisateur est davantage satisfait de son expérience avec l’adaptation. Les résultats démontrent que le système d’adaptation peut détecter le besoin d’aide grâce à deux modèles d’apprentissage machine entraînés différemment, l’un généralisé et l’autre personalisé, avec des performances respectives de 53.4% et 67.5% par rapport à un niveau de chance de 33.3%.
We developed a serious game in order to teach users how to draw Lewis diagrams. We integrated an environment able to record in electroencephalographic signals, facial expressions, and pupil diameters to the serious game. The goal of this work is to determine whether such an environment enabled the serious game to detect in real-time whether or not the user needs help and adapt itself accordingly, and if the experience is more enjoyable for the users if the game tries to adapt itself. Results show that two approaches were promising in order to detect the level of help needed, both training a machine learning models but one using a general data set and the other a personalized (to the user) data set, with their respective performances being 53.4% and 67.5% compared to a chance baseline of 33.3%.
APA, Harvard, Vancouver, ISO, and other styles
30

Karabernou, Si Mohamoud. "Conception et réalisation d'un processeur pour une architecture cellulaire massivement parallèle intégrée." Phd thesis, 1992. http://tel.archives-ouvertes.fr/tel-00343216.

Full text
Abstract:
Cette thèse présente la conception et la réalisation en VLSI d'un processeur programmable pour une nouvelle architecture MIMD massivement parallèle, intermédiaire entre la connection machine et les hypercubes de processeurs 32 bits. Elle est composée d'une grille 2d de cellules asynchrones communiquant par échanges de messages. Chaque cellule intégré une partie de traitement qui consiste en un petit microprocesseur 8 bits dote d'une mémoire (données et programme), et une partie de routage permettant l'acheminement des messages. A l'issue de l'étude des différents problèmes de communication dans les machines parallèles, nous proposons un routeur original utilisant le principe du Wormhole, et permettant d'acheminer jusqu'à cinq messages en parallèle. Nous décrivons ensuite l'architecture de la partie de traitement, en partant de la définition du jeu d'instructions, du chemin de données et de la partie contrôle jusqu'à la conception au bas niveau. Un premier prototype d'un circuit VLSI de ce processeur a été réalise sur silicium et a permis d'obtenir les mesures des surfaces et des performances
APA, Harvard, Vancouver, ISO, and other styles
31

Sanka, Norbert Bertrand. "Étude comparative et choix optimal du nombre de classes en classification et réseaux de neurones : application en science des données." Thèse, 2021. http://depot-e.uqtr.ca/id/eprint/9662/1/eprint9662.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography