Inhaltsverzeichnis

  1. Dissertationen

Auswahl der wissenschaftlichen Literatur zum Thema „Données de taille variable“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Données de taille variable" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Dissertationen zum Thema "Données de taille variable"

1

Bijou, Mohammed. "Qualité de l'éducation, taille des classes et mixité sociale : Un réexamen à partir des méthodes à variables instrumentales et semi-paramétriques sur données multiniveaux - Cas du Maroc -." Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL2004.

Der volle Inhalt der Quelle
Annotation:
L’objectif de ce travail est d’évaluer la qualité du système éducatif marocain à partir des données du programme TIMSS et PIRLS 2011. Le travail s’articule autour de trois chapitres. Il s’agit d’étudier, dans le premier chapitre, l’influence des caractéristiques individuelles de l’élève et de l’école sur les performances scolaires, ainsi que le rôle important de l'environnement scolaire (effet taille et composition sociale). Dans le deuxième chapitre, nous cherchons à estimer la taille de classe optimale qui assure une réussite généralisée de tous les élèves des deux niveaux à savoir, la 4e année primaire et la 2e année collégiale. Le troisième chapitre propose d’étudier la relation existante entre la composition sociale et économique de l’établissement et la performance scolaire, tout en démontrant le rôle de la mixité sociale dans la réussite des élèves. Pour ce faire, nous avons utilisé différentes approches économétriques, à savoir une modélisation multiniveau avec correction du problème de l’endogénéité (chapitre 1), un modèle semi-paramétrique hiérarchique dans le (chapitre 2) et un modèle semi paramétrique hiérarchique contextuel (chapitre 3). Les résultats montrent que la performance scolaire est déterminée par plusieurs facteurs intrinsèques à l'élève et également contextuels. En effet, une taille de classe moins chargée et une école à composition sociale mixte sont les deux éléments essentiels pour un environnement favorable et un apprentissage assuré pour l’ensemble des élèves. Selon nos résultats, les pouvoirs publics devraient accorder la priorité à la réduction de la taille des classes en la limitant à 27 élèves au maximum. De plus, il est nécessaire d’envisager un assouplissement de la carte scolaire afin de favoriser la mixité sociale à l’école. Les résultats obtenus permettent une meilleure compréhension du système scolaire marocain, dans son aspect qualitatif et la justification des politiques éducatives pertinentes pour améliorer la qualité du système éducatif marocain<br>This thesis objective is to examine the quality of the Moroccan education system exploiting the data of the programs TIMSS and PIRLS 2011.The thesis is structured around three chapters. The first chapter examines the influence of individual student and school characteristics on school performance, as well as the important role of the school environment (effect of size and social composition). In the second chapter, we seek to estimate the optimal class size that ensures widespread success for all students at both levels, namely, the fourth year of primary school and the second year of college. The third chapter proposes to study the relationship between the social and economic composition of the school and academic performance, while demonstrating the role of social mix in student success. In order to study this relationship, we mobilize different econometric approaches, by applying a multilevel model with correction for the problem of endogeneity (chapter 1), a hierarchical semi-parametric model (chapter 2) and a contextual hierarchical semi-parametric model (chapter 3). The results show that academic performance is determined by several factors that are intrinsic to the student and also contextual. Indeed, a smaller class size and a school with a mixed social composition are the two essential elements for a favourable environment and assured learning for all students. According to our results, governments should give priority to reducing class size by limiting it to a maximum of 27 students. In addition, it is necessary to consider making the school map more flexible in order to promote social mixing at school. The results obtained allow a better understanding of the Moroccan school system, in its qualitative aspect and the justification of relevant educational policies to improve the quality of the Moroccan education system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Sanchez, Théophile. "Reconstructing our past ˸ deep learning for population genetics." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG032.

Der volle Inhalt der Quelle
Annotation:
Avec l'explosion des technologies de séquençage, de plus en plus de données génomiques sont disponibles, ouvrant la voie à une connaissance approfondie des forces évolutives en œuvre et en particulier de l'histoire démographique des populations. Toutefois, extraire l'information intéressante de ces données massives de manière efficace reste un problème ouvert. Compte tenu de leurs récents succès en apprentissage statistique, les réseaux de neurones artificiels sont un candidat sérieux pour mener à bien une telle analyse. Ces méthodes ont l'avantage de pouvoir traiter des données ayant une grande dimension, de s'adapter à la plupart des problèmes et d'être facilement mis à l'échelle des moyens de calcul disponibles. Cependant, leur performance dépend fortement de leur architecture qui requiert d'être en adéquation avec les propriétés des données afin d'en tirer le maximum d'information. Dans ce cadre, cette thèse présente de nouvelles approches basées sur l'apprentissage statistique profond, ainsi que les principes permettant de concevoir des architectures adaptées aux caractéristiques des données génomiques. L'utilisation de couches de convolution et de mécanismes d'attention permet aux réseaux présentés d'être invariants aux permutations des haplotypes échantillonnés et de s'adapter à des données de dimensions différentes (nombre d'haplotypes et de sites polymorphes). Les expériences conduites sur des données simulées démontrent l'efficacité de ces approches en les comparant à des architectures de réseaux plus classiques, ainsi qu'à des méthodes issues de l'état de l'art. De plus, la possibilité d'assembler les réseaux de neurones à certaines méthodes déjà éprouvées en génétique des populations, comme l'approximate Bayesian computation, permet d'améliorer les résultats et de combiner leurs avantages. La praticabilité des réseaux de neurones pour l'inférence démographique est testée grâce à leur application à des séquences génomiques complètes provenant de populations réelles de Bos taurus et d'Homo sapiens. Enfin, les scénarios obtenus sont comparés aux connaissances actuelles de l'histoire démographique de ces populations<br>Constant improvement of DNA sequencing technology that produces large quantities of genetic data should greatly enhance our knowledge of evolution, particularly demographic history. However, the best way to extract information from this large-scale data is still an open problem. Neural networks are a strong candidate to attain this goal, considering their recent success in machine learning. These methods have the advantages of handling high-dimensional data, adapting to most applications and scaling efficiently to available computing resources. However, their performance dependents on their architecture, which should match the data properties to extract the maximum information. In this context, this thesis presents new approaches based on deep learning, as well as the principles for designing architectures adapted to the characteristics of genomic data. The use of convolution layers and attention mechanisms allows the presented networks to be invariant to the sampled haplotypes' permutations and to adapt to data of different dimensions (number of haplotypes and polymorphism sites). Experiments conducted on simulated data demonstrate the efficiency of these approaches by comparing them to more classical network architectures, as well as to state-of-the-art methods. Moreover, coupling neural networks with some methods already proven in population genetics, such as the approximate Bayesian computation, improves the results and combines their advantages. The practicality of neural networks for demographic inference is tested on whole genome sequence data from real populations of Bos taurus and Homo sapiens. Finally, the scenarios obtained are compared with current knowledge of the demographic history of these populations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Caron, Eddy. "Calcul numérique sur données de grande taille." Amiens, 2000. https://tel.archives-ouvertes.fr/tel-01444591.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Manouvrier, Maude. "Objets similaires de grande taille dans les bases de données." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090033.

Der volle Inhalt der Quelle
Annotation:
Le but de notre recherche est d'aborder les problèmes de versions d'objets de grande taille dans les bases de données. Les images sont des objets de grande taille, faiblement structurés, qu'il est possible d'organiser par des structures telles que l'arbre quaternaire. En traitement d'images, les utilisateurs ont besoin de conserver différents états d'une même image, chaque état correspondant au résultat d'une opération ou d'une série d'opérations particulières sur l'image. Ces états peuvent être considérés comme des versions d'images. Nous proposons une structure, l'arbre quaternaire générique, qui stocke des images similaires, la similarité étant définie par une distance entre les arbres quaternaires représentant les images. Deux images sont similaires si leurs arbres quaternaires diffèrent seulement sur un nombre relativement faible de nuds. L'arbre quaternaire générique minimise l'espace de stockage, par partage de parties communes entre images, et permet d'appliquer des opérations sur les images, comme la comparaison d'images, la comparaison d'une même région dans différentes images ou la mise à jour simultanée de différentes images. Les objets de grande taille, fortement structurés, se trouvent naturellement dans les SGBDOO, lors de la manipulation de racines de persistance (ensemble d'identificateurs d'objets), par exemple. Nos travaux permettent également de répondre aux problèmes de redondance lors du stockage des versions d'ensemble ou de collection d'objets. Ces objets de grande taille sont gérés le plus souvent a l'aide de structures d'index comme les arbres b+. Nous proposons des mécanismes de gestion de versions d'arbre b+ pour optimiser la gestion de versions de collection d'objets. Les mécanismes proposés dans cette thèse peuvent être généralisés aux structures d'index arborescentes en général, offrant par conséquent un large domaine d'applications couvrant en particulier les systèmes d'informations géographiques et les entrepôts de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Goddard, Jean-Philippe. "Synthèse de molécules de taille variable par polyhomologation de composés borés." Paris 11, 2002. http://www.theses.fr/2002PA112064.

Der volle Inhalt der Quelle
Annotation:
Lors de ce travail, nous avons développé une méthode de synthèse originale permettant d'accéder à des mélanges de molécules de taille variable dans le but de découvrir de nouvelles molécules complexantes du césium. Cette méthode fait intervenir une réaction de polyhomologation de composés borés à l'aide de nucléophiles comportant un groupement partant en alpha de la charge négative. Nous avons testé différentes familles de nucléophiles comme les anions de sulfones, les ylures de sulfonium, les anions d'hydrazones, le triméthylsilyldiazométhane et les ylures d'arsonium. Les trois premières familles ne nous ont pas permis de réaliser des réactions de polyhomologation. Le triméthylsilyldiazométhane ne possède pas non plus la capacité à réaliser des réactions d'insertions successives mais cette propriété a été exploitée pour proposer une transformation chimique d'un alcène en alkylméthanol correspondant. Les ylures d'arsonium ont permis de réaliser des réactions de polyhomologation avec des boronates et des boranes. Les ylures d'alkylarsonium ont été utilisés pour former des polymères de taille contrôlée possédant une ramification sur chacun des atomes de carbones de la chaîne principale. Ce type de polymère n'est pas accessible par les méthodes de polymérisation actuelles. Les ylures d'allylarsonium possèdent une réactivité particulière puisque les boranes allyliques formés lors des réactions d'insertion subissent un réarrangement sigmatropique [1,3] avant de réagir de nouveau avec un ylure. Il est ainsi possible d'accéder à des polymères de grande taille dont la structure est proche de celle du caoutchouc naturel. Par cette méthode il est possible d'accéder à des polymères linéaires ou cycliques. Cette méthode est actuellement en cours de développement au laboratoire pour former des structures complexantes du césium<br>During this work, we developed a method of original synthesis allowing to lead mixtures of molecules of variable size with an aim of discovering new chelating molecules of cesium. This method utilizes a reaction of polyhomologation of borated compounds with the nucleophilic ones comprising a grouping leaving in alpha of the negative charge. We tested various families from nucleophilic like anions of sulfones, sulfonium ylides, anions of hydrazones, triméthylsilyldiazométhane and arsonium ylides. The first three families did not allow us to carry out reactions of polyhomologation. The triméthylsilyldiazométhane posséde not either the capacity to carry out reactions successive insertions but this property was exploited to propose a chemical conversion of olefinic hydrocarbon into alkylmethanol corresponding. The arsonium ylides made it possible to carry out reactions of polyhomologation with boronates and boranes. The alkylarsonium ylides were used to form polymers of controlled size having a ramification on each carbon atom of the principal chain. This type of polymer is not accessible by the current methods of polymerization. The allylarsonium ylides have a particular reactivity since the allyl boranes formed during the insertion reactions undergo a sigmatropic [1,3] rearrangement before reacting again with a ylide. It is thus possible to lead with polymers of big size to which the structure is close to that of the natural rubber. By this method it is possible to lead with linear or cyclic polymers. This method is currently under development at the laboratory to form chelating structures of cesium
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Uribe, Lobello Ricardo. "Génération de maillages adaptatifs à partir de données volumiques de grande taille." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives<br>In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lê, Thanh Vu. "Visualisation interactive 3D pour un ensemble de données géographiques de très grande taille." Pau, 2011. http://www.theses.fr/2011PAUU3005.

Der volle Inhalt der Quelle
Annotation:
La visualisation temps réel du terrain reste depuis longtemps un domaine de recherche actif dans de nombreuses applications informatiques comme les systèmes d’information géographique (SIG), les jeux en 3D ou la réalité virtuelle. L’évolution des techniques d’acquisitions de données et l’amélioration des techniques de visualisation nous apportent une augmentation considérable dans la résolution des données pour les modèles numérique de terrain (MNT) et dans les nouvelles méthodes d’affichage pour représenter ces informations. Dans cette thèse, nous présentons notre framework de rendu de terrain que nous résumons ici en plusieurs contributions : notre première contribution consiste en une architecture simple et efficace qui permet de visualiser des terrains de très grande taille. La méthode utilisée permet de travailler hors mémoire centrale en utilisant une structure de données de type quadtree tout en étant capable de garder une précision de la géométrie et de la couleur au niveau pixel grâce aux différents critères de subdivision. Notre architecture sépare la gestion des données raster sur le CPU et l’affichage en 3D effectuée sur le GPU. Notre deuxième contribution est une méthode originale pour enlever les artéfacts qui apparaissent sur la jointure entre la frontière des blocs de quadtree, nous générons une surface continue sans avoir besoin d’utiliser de maillages supplémentaires. Notre dernière contribution est une méthode efficace adaptée avec notre structure de données pour le geomorphing, cette dernière peut être implémentée entièrement sur le GPU. Par rapport aux méthodes existantes, nos méthodes présentent de nombreux avantages : il n’y a pas de gestion de maillage dans la structure de données ; la complexité du terrain est contrôlable jusqu’au niveau du pixel et dépend de la projection d’erreur métrique, le terrain de basse précision géométrique obtient toujours une bonne précision en ce qui concerne la silhouette des objets grâce à la technique dite du normal ; une grande vitesse d’interaction et de rendu grâce au chargement de données à la demande ; et enfin une transformation similaire pour la géométrie et la texture qui facilite la gestion de données par le CPU<br>Real-time terrain rendering remains an active area of research for a lot of modern computer based applications such as geographic information systems (GIS), interactive 3D games, flights simulators or virtual reality. The technological breakthroughs in data aquisition, coupled with recent advances in display technology have simultaneously led to substantial increases in resolution of both the Digital Elevation Models (DEM) and the various displays used to present this information. In this phD, we have presented a new out-of-core terrain visualization algorithm that achieves per-pixel accurate shading of large textured elevation maps in real-time : our first contribution is the LOD scheme which is based on a small precomputed quadtree of geometric errors, whose nodes are selected for asynchronous loading and rendering depending on a projection in screenspace of those errors. The terrain data and its color texture are manipulated by the CPU in a unified manner as a collection of raster image patches, whose dimensions depends on their screen-space occupancy ; our second contribution is a novel method to remove artifacts that appear on the border between quadtree blocks, we generate a continuous surface without needing additional mesh ; our latest contribution is an effective method adapted to our data structure for the geomorphing, it can be implemented entirely on the GPU. The presented framework exhibits several interesting features over other existing techniques : there is no mesh manipulation or mesh data structures required ; terrain geometric complexity only depends on projected elevation error views from above result in very coarse meshes), lower geometric complexity degrades terrain silhouettes but not details brought in through normal map shading, real-time rendering with support for progressive data loading ; and geometric information and color textures are similarly and efficiently handled as raster data by the CPU. Due to simplified data structures, the system is compact, CPU and GPU efficient and is simple to implement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs<br>This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs<br>This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Pham, Thi Thuy Ngoc. "Estimation de mouvement avec bloc de taille variable et application dans un réducteur de bruit." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1320.

Der volle Inhalt der Quelle
Annotation:
Une séquence vidéo, une source riche d'information visuelle, possède une corrélation élevée dans la direction du mouvement entre les images consécutives. Cette corrélation peut être utilisée dans plusieurs applications comme le codage, la réduction du bruit, l'interpolation temporelle, etc. Pour l'exploiter, les méthodes d'estimation de mouvement qui sont à la fois efficaces et rapides sont vraiment nécessaires. Dans ce mémoire, une nouvelle méthode d'estimation de mouvement basée sur l'appariement de bloc et la recherche exhaustive de vecteur de mouvement sera proposée. Grâce à un nouveau critère d'évaluation, son coût de calcul est inférieur à celui de la méthode de recherche exhaustive existant. De plus, la taille de bloc, qui est variable, permet de bien estimer les zones des détails en mouvement. Sa performance peut être comparable à la méthode de recherche exhaustive. La compensation de mouvement avec bloc à recouvrement qui réduit l'artefact de bloc et l'erreur de prédiction, est aussi proposée. La combinaison des méthodes d'estimation et de compensation de mouvement sera appliquée à la réduction temporelle du bruit afin de préserver les fréquences élevées des images traitées. Le réducteur de bruit développé comprend deux composantes: un réducteur temporel avec compensation de mouvement et un réducteur spatial.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Mehr Quellen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie