Дисертації з теми "Petits jeux de données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Petits jeux de données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Petits jeux de données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Gay, Antonin. "Pronostic de défaillance basé sur les données pour la prise de décision en maintenance : Exploitation du principe d'augmentation de données avec intégration de connaissances à priori pour faire face aux problématiques du small data set." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse CIFRE est un projet commun entre ArcelorMittal et le laboratoire CRAN, dont l'objectif est d'optimiser la prise de décision en maintenance industrielle par l'exploitation des sources d'information disponibles, c'est-à-dire des données et des connaissances industrielles, dans le cadre des contraintes industrielles présentées par le contexte sidérurgique. La stratégie actuelle de maintenance des lignes sidérurgiques est basée sur une maintenance préventive régulière. L'évolution de la maintenance préventive vers une stratégie dynamique se fait par le biais de la maintenance prédictive. La maintenance prédictive a été formalisée au sein du paradigme Prognostics and Health Management (PHM) sous la forme d'un processus en sept étapes. Parmi ces étapes de la PHM, le travail de ce doctorat se concentre sur la prise de décision et le pronostic. En regard de cette maintenance prédictive, le contexte de l'Industrie 4.0 met l'accent sur les approches basées sur les données, qui nécessitent une grande quantité de données que les systèmes industriels ne peuvent pas fournir systématiquement. La première contribution de la thèse consiste donc à proposer une équation permettant de lier les performances du pronostic au nombre d'échantillons d'entraînement disponibles. Cette contribution permet de prédire quelles performances le pronostic pourraient atteindre avec des données supplémentaires dans le cas de petits jeux de données (small datasets). La deuxième contribution de la thèse porte sur l'évaluation et l'analyse des performances de l'augmentation de données appliquée au pronostic sur des petits jeux de données. L'augmentation de données conduit à une amélioration de la performance du pronostic jusqu'à 10%. La troisième contribution de la thèse est l'intégration de connaissances expertes au sein de l'augmentation de données. L'intégration de connaissances statistiques s'avère efficace pour éviter la dégradation des performances causée par l'augmentation de données sous certaines conditions défavorables. Enfin, la quatrième contribution consiste en l'intégration des résultats du pronostic dans la modélisation des coûts de la prise de décision en maintenance et en l'évaluation de l'impact du pronostic sur ce coût. Elle démontre que (i) la mise en œuvre de la maintenance prédictive réduit les coûts de maintenance jusqu'à 18-20% et (ii) l'amélioration de 10% du pronostic peut réduire les coûts de maintenance de 1% supplémentaire
This CIFRE PhD is a joint project between ArcelorMittal and the CRAN laboratory, with theaim to optimize industrial maintenance decision-making through the exploitation of the available sources of information, i.e. industrial data and knowledge, under the industrial constraints presented by the steel-making context. Current maintenance strategy on steel lines is based on regular preventive maintenance. Evolution of preventive maintenance towards a dynamic strategy is done through predictive maintenance. Predictive maintenance has been formalized within the Prognostics and Health Management (PHM) paradigm as a seven steps process. Among these PHM steps, this PhD's work focuses on decision-making and prognostics. The Industry 4.0 context put emphasis on data-driven approaches, which require large amount of data that industrial systems cannot ystematically supply. The first contribution of the PhD consists in proposing an equation to link prognostics performances to the number of available training samples. This contribution allows to predict prognostics performances that could be obtained with additional data when dealing with small datasets. The second contribution of the PhD focuses on evaluating and analyzing the performance of data augmentation when applied to rognostics on small datasets. Data augmentation leads to an improvement of prognostics performance up to 10%. The third contribution of the PhD consists in the integration of expert knowledge into data augmentation. Statistical knowledge integration proved efficient to avoid performance degradation caused by data augmentation under some unfavorable conditions. Finally, the fourth contribution consists in the integration of prognostics in maintenance decision-making cost modeling and the evaluation of prognostics impact on maintenance decision cost. It demonstrates that (i) the implementation of predictive maintenance reduces maintenance cost up to 18-20% and ii) the 10% prognostics improvement can reduce maintenance cost by an additional 1%
2

Coveliers, Alexandre. "Sensibilité aux jeux de données de la compilation itérative." Paris 11, 2007. http://www.theses.fr/2007PA112255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de la conception d’architecture de processeurs, la recherche de performances a entraîné une augmentation continue de la complexité de ces architectures. Cette augmentation de la complexité des architectures a rendu de plus en plus difficile l’exploitation de leurs performances potentielles. Afin d’améliorer l’exploitation des performances des architectures, de nouvelles stratégies d’optimisation intégrant des informations sur le comportement dynamique –i. E. Lors de l’exécution – du code ont été proposées, comme le principe de la compilation itérative. Ces approches permettent de déterminer des transformations plus pertinentes que celles obtenues par une analyse statique. Le principal écueil de ces méthodes de transformation de code réside dans le fait que les transformations du code sont déterminées à partir d’informations issues de l’exécution de l’application avec un jeu de données particulier. L’optimisation obtenue est donc dépendante du jeu de données utilisé pendant le processus d’optimisation. Dans cette thèse, nous étudions, pour deux méthodes de transformation de code itératives différentes, la variation des performances des applications optimisées en fonction des jeux de données utilisés. Nous introduisons différentes métriques afin de quantifier cette sensibilité. Nous proposons également des méthodes de sélection des jeux de données à utiliser pendant le processus de transformation de code afin d’obtenir un code optimisé exhibant de bonnes performances avec l’ensemble des jeux de données
In the context of architecture processor conception, the performance research leads to a constant growth of architecture complexity. This growth of architecture complexity made more difficult the exploitation of their potential performance. To improve architecture performance exploitation, new optimization techniques based on dynamic behavior –i. E. Run time behavior- has been proposed Iterative compilation is a such an optimization approach. This approach allows to determine more relevant transformation than those obtained by static analysis. The main drawback of this optimization method is based on the fact that the information that lead to the code transformation are specific to a particular data set. Thus the determined optimizations are dependent on the data set used during the optimization process. In this thesis, we study the optimized application performance variations according to the data set used for two iterative code transformation techniques. We introduce different metrics to quantify this sensitivity. Also, we propose data set selection methods for choosing which data set to use during code transformation process. Selected data sets enable to obtain an optimized code with good performance with all other available data sets
3

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
4

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
5

Bouillot, Flavien. "Classification de textes : de nouvelles pondérations adaptées aux petits volumes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS167.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au quotidien, le réflexe de classifier est omniprésent et inconscient. Par exemple dans le processus de prise de décision où face à un élément (un objet, un événement, une personne) nous allons instinctivement chercher à rapprocher cet élément d'autres similaires afin d'adapter nos choix et nos comportements. Ce rangement dans telle ou telle catégorie repose sur les expériences passées et les caractéristiques de l'élément. Plus les expériences seront nombreuses et les caractéristiques détaillées, plus fine et pertinente sera la décision. Il en est de même lorsqu'il nous faut catégoriser un document en fonction de son contenu. Par exemple détecter s'il s'agit d'un conte pour enfants ou d'un traité de philosophie. Ce traitement est bien sûr d'autant plus efficace si nous possédons un grand nombre d'ouvrages de ces deux catégories et que l'ouvrage à classifier possède un nombre important de mots.Dans ce manuscrit nous nous intéressons à la problématique de la prise de décision lorsque justement nous disposons de peu de documents d'apprentissage et que le document possède un nombre de mots limité. Nous proposons pour cela une nouvelle approche qui repose sur de nouvelles pondérations. Elle nous permet de déterminer avec précision l'importance à accorder aux mots composant le document.Afin d'optimiser les traitements, nous proposons une approche paramétrable. Cinq paramètres rendent notre approche adaptable, quel que soit le problème de classification donné. De très nombreuses expérimentations ont été menées sur différents types de documents, dans différentes langues et dans différentes configurations. Selon les corpus, elles mettent en évidence que notre proposition nous permet d'obtenir des résultats supérieurs en comparaison avec les meilleures approches de la littérature pour traiter les problématiques de petits volumes.L'utilisation de paramètres introduit bien sur une complexité supplémentaire puisqu'il faut alors déterminer les valeurs optimales. Détecter les meilleurs paramètres et les meilleurs algorithmes est une tâche compliquée dont la difficulté est théorisée au travers du théorème du No-Free-Lunch. Nous traitons cette seconde problématique en proposant une nouvelle approche de méta-classification reposant sur les notions de distances et de similarités sémantiques. Plus précisément nous proposons de nouveaux méta-descripteurs adaptés dans un contexte de classification de documents. Cette approche originale nous permet d'obtenir des résultats similaires aux meilleures approches de la littérature tout en offrant des qualités supplémentaires.Pour conclure, les travaux présentés dans ce manuscrit ont fait l'objet de diverses implémentations techniques, une dans le logiciel Weka, une dans un prototype industriel et enfin une troisième dans le logiciel de la société ayant financé ces travaux
Every day, classification is omnipresent and unconscious. For example in the process of decision when faced with something (an object, an event, a person), we will instinctively think of similar elements in order to adapt our choices and behaviors. This storage in a particular category is based on past experiences and characteristics of the element. The largest and the most accurate will be experiments, the most relevant will be the decision. It is the same when we need to categorize a document based on its content. For example detect if there is a children's story or a philosophical treatise. This treatment is of course more effective if we have a large number of works of these two categories and if books had a large number of words. In this thesis we address the problem of decision making precisely when we have few learning documents and when the documents had a limited number of words. For this we propose a new approach based on new weights. It enables us to accurately determine the weight to be given to the words which compose the document.To optimize treatment, we propose a configurable approach. Five parameters make our adaptable approach, regardless of the classification given problem. Numerous experiments have been conducted on various types of documents in different languages and in different configurations. According to the corpus, they highlight that our proposal allows us to achieve superior results in comparison with the best approaches in the literature to address the problems of small dataset. The use of parameters adds complexity since it is then necessary to determine optimitales values. Detect the best settings and best algorithms is a complicated task whose difficulty is theorized through the theorem of No-Free-Lunch. We treat this second problem by proposing a new meta-classification approach based on the concepts of distance and semantic similarities. Specifically we propose new meta-features to deal in the context of classification of documents. This original approach allows us to achieve similar results with the best approaches to literature while providing additional features. In conclusion, the work presented in this manuscript has been integrated into various technical implementations, one in the Weka software, one in a industrial prototype and a third in the product of the company that funded this work
6

Coatélan, Stéphane. "Conception et évaluation d'un système de transmission sur canal acoustique sous-marin horizontal petits fonds." Brest, 1996. http://www.theses.fr/1996BRES2001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Peu de modems pour la transmission horizontale (portee de plusieurs kilometres) de donnees sur canal acoustique sous-marin de type petits fonds (hauteur d'eau n'excedant pas quelques centaines de metres) existent. Or, il y a une demande dans le domaine scientifique pour l'acquisition et le controle en temps reel de donnees environnementales sous-marines d'une part, et la telecommande acoustique d'engins immerges d'autre part. Ce canal presente la particularite d'etre contraignant du point de vue des communications numeriques: la propagation des ondes acoustiques par trajets multiples le rend selectif en frequence et l'effet doppler le rend non stationnaire. Le modem de transmission presente dans cette these utilise un multiplex a division de frequences orthogonales (ofdm). Le signal emis sur chaque voie du multiplex est module a deux etats de frequence (fsk) et la reception est non coherente pour eviter les problemes de recuperation de porteuse. L'introduction d'un intervalle de garde temporel superieur a la dispersion temporelle du canal permet de s'affranchir de l'interference entre symboles. L'orthogonalite entre les signaux modules emis sur chaque voie est alors definie sur une duree inferieure a la duree d'un symbole et durant laquelle le canal est suppose stationnaire. Pour lutter contre les effets lies aux evanouissements introduits par le canal, il est necessaire d'associer a la technique de transmission retenue une fonction de codage correcteur d'erreurs. Enfin, une fonction d'entrelacement est ajoutee pour eclater les erreurs eventuellement groupees a l'entree du decodeur. Les performances du systeme de transmission avec et sans codage correcteur d'erreurs ont ete evaluees par simulations sur un canal de rayleigh en presence de trajets multiples et d'effet doppler. Le traitement de signaux reels obtenus lors de campagnes de mesures en mer ont, quant a eux permis de valider le systeme ofdm/fsk pour differentes configurations de transmission: distance emetteur-recepteur, hauteur d'eau, type de fond, debit numerique. En ce qui concerne la mise en uvre des equipements d'emission et de reception, elle est simplifiee par l'utilisation de la transformee de fourier discrete (tfd). Le demodulateur a base de tfd est optimal. Dans le but de reduire le rapport entre l'intervalle de garde temporel et la duree d'un symbole, nous avons modifie les formes d'ondes a l'emission. L'utilisation de formes d'ondes gaussiennes a permis d'obtenir des performances et une efficacite spectrale du systeme de transmission meilleures. Les spectres des signaux modules emis par voie du multiplex sont alors disjoints si bien que le systeme ofdm/fsk est moins sensible au doppler
7

Dumonceaux, Frédéric. "Approches algébriques pour la gestion et l’exploitation de partitions sur des jeux de données." Nantes, 2015. http://archive.bu.univ-nantes.fr/pollux/show.action?id=c655f585-5cf3-4554-bea2-8e488315a2b9.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’essor des méthodes d’analyse de données dans des contextes toujours plus variés nécessite la conception de nouveaux outils permettant la gestion et la manipulation des données extraites. La construction de résumés est alors couramment structurée sous la forme de partitions d’ensembles dont la manipulation dépend à la fois du contexte applicatif et de leurs propriétés algébriques. Dans un premier temps, nous proposons de modéliser la gestion des résultats de requêtes d’agrégation dans un cube OLAP à l’aide d’un calcul algébrique sur des partitions. Nous mettons en évidence l’intérêt d’une telle démarche par le gain de temps et d’espace observé pour produire ces résultats. Nous traitons par la suite le cas de la modélisation du consensus de partitions où nous soulignons les difficultés propres à sa construction en l’absence de propriétés qui régissent la combinaison des partitions. Nous proposons donc d’approfondir l’étude des propriétés algébriques de la structure du treillis des partitions, en vue d’en améliorer la compréhension et par conséquent de produire de nouvelles procédures pour l’élaboration du consensus. En guise de conclusion, nous proposons la modélisation et une mise en œuvre concrète d’opérateurs sur des partitions génériques et nous livrons diverses expériences, propres à souligner l’intérêt de leur usage conceptuel et opérationnel
The rise of data analysis methods in many growing contexts requires the design of new tools, enabling management and handling of extracted data. Summarization process is then often formalized through the use of set partitions whose handling depends on applicative context and inherent properties. Firstly, we suggest to model the management of aggregation query results over a data cube within the algebraic framework of the partition lattice. We highlight the value of such an approach with a view to minimize both required space and time to generate those results. We then deal with the consensus of partitions issue in which we emphasize challenges related to the lack of properties that rule partitions combination. The idea put forward is to deepen algebraic properties of the partition lattice for the purpose of strengthening its understanding and generating new consensus functions. As a conclusion, we propose the modelling and implementation of operators defined over generic partitions and we carry out some experiences allowing to assert the benefit of their conceptual and operational use
8

Fan, Qingfeng. "Stratégie de transfert de données dans les grilles de capteurs." Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se concentre principalement sur la stratégie de transmission de masses de données et l'optimisation des requêtes dans les infrastructures de type grille. Dans un premier temps, elle se focalise sur la transmission au niveau fichier, avec une stratégie de réplication en anneau ou en thread, puis celle au niveau de parties de fichier permettant d'améliorer l'efficacité de la grille de données. Ensuite, la thèse adresse le transfert de paquets de données dans des grilles de capteurs, en utilisant un arbre multicast, largement utilisés dans les réseaux de capteurs. Cette partie explique comment générer une architecture multicast dans le contexte de grilles. Elle propose un modèle d'optimisation qui combine les facteurs de localisation et de données, en un vecteur pondéré. La troisième partie de cette thèse propose une extension du modèle afin de prendre en compte un troisième facteur correspondant à l'énergie pour la grille de capteurs sans fil, ce qui amène à un problème de corrélation entre 3 vecteurs (localisation, données et énergie). La dernière partie de la thèse considère le contexte mobile: les requête d'utilisateurs mobiles sur des sources mobiles. Dans ce contexte, l'optimisation de la requête dépend non seulement de la taille du cache et de sa fraicheur, mais aussi de la mobilité. Nous avons proposé une extension des techniques d'optimisation par cache sémantique pour des requêtes distribuées mobiles
Big data era is coming, and the amount of data increases dramatically in many application fields every day. This thesis mostly focuses on the big data transmission strategy for query optimization in Grid infrastructure. Firstly, we discuss over file degree: the ring and thread replication strategy, and under file degree: the file-parted replication strategy to improve the efficiency of Data Grid. We also tackle the data packets degree using multicast data transfer within a Sensor Grid, which is widely utilized in the in-network query operation. The system comprehensively considers the location factor and data factor, and combines them in a general weighted vector. In a third stage, we extended our model to account for the energy factor to deal with wireless sensor grids, which corresponds to a 3 vectors correlation problem. We show that our approach can be extended further to any finite-dimensional factors. The last part deals with the mobile context, i. E. When users and the queried resources are mobile. We proposed an extension of the semantic cache based optimization for such mobile distributed queries. In this context, the query optimization depends, not only on the cache size and its freshness, but also on the mobility of the user
9

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
10

Modrzejewski, Richard. "Recalage déformable, jeux de données et protocoles d'évaluation pour la chirurgie mini-invasive abdominale augmentée." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne les techniques de recalage déformable de données pré-opératoires dans la scène peropératoire en tant qu’étape indispensable à la réalisation de réalité augmentée pour la chirurgie abdominale. De telles techniques sont ainsi discutées, de même que les méthodologies d’évaluation associées à ces dernières.Deux contextes sont considérés : le recalage pour la chirurgie coelioscopique assistée par ordinateur et le recalage postural de patient sur la table d’opération. Pour ces deux contextes, les besoins auxquels doivent répondre les algorithmes de recalage considérés sont discutés, ainsi que les principales limitations des solutions existantes.Des algorithmes réalisés au cours de cette thèse, permettant de répondre à ces besoins sont ainsi proposés et discutés. Une attention toute particulière est alors accordée à leur évaluation. Différents jeux de données permettant une évaluation quantitative de la précision des algorithmes de recalage, créés eux aussi durant cette thèse, et rendu publics, sont ainsi présentés. De telles données sont extrêmement importantes car elles répondent à un manque de données standardisées permettant d’évaluer l’erreur de recalage de façon quantitative, et ainsi de comparer les différents algorithmes. La modélisation de l’éclairage de la scène coelioscopique, permettant d’extraire des contraintes fortes sur les données à recaler et la surface de l’organe observé, et ainsi d’être utilisée pour contraindre ces problématiques de recalage, est aussi discutée. Ce manuscrit est séparé en sept parties. La première traite du contexte de la thèse. La chirurgie mini-invasive est présentée ainsi que différents problèmes de vision par ordinateur généraux qui, une fois appliqués au contexte médical permettent de définir la chirurgie assistée par ordinateur. La seconde partie traite des prérequis à la lecture de la thèse. Le prétraitement des données pré-opératoires et per-opératoires, avant utilisation par les algorithmes de recalage présentés,est ainsi discuté. La troisième partie correspond au recalage de données hépatiques en coelioscopie, et de l’évaluation associée à cette méthode. La quatrième partie correspond quant à elle à la problématique du recalage postural. La cinquième partie propose une modélisation de l’éclairage en coelioscopie pouvant être utilisée pour obtenir des contraintes fortes entre la surface observée et les images coelioscopiques. La sixièmepartie propose une utilisation des modèles de lumière discutés dans la partie précédente afin de raffiner et densifier des reconstructions de la scène coelioscopique. Enfin, la septième et dernière partie correspond à nos conclusions vis-à-vis des problématiques abordées au cours de la thèse, et aux travaux futurs
This thesis deals with deformable registration techniques of preoperative data to the intra-operative sceneas an indispensable step in the realisation of augmented reality for abdominal surgery. Such techniques arethus discussed as well as evaluation methodologies associated with them. Two contexts are considered : theregistration for computer-assisted laparoscopic surgery and the postural registration of the patient on theoperating table. For these two contexts, the needs to be met by the registration algorithms considered arediscussed, as well as the main limitations of the existing solutions. Algorithms developped during this thesis,allowing to meet these needs are thus proposed and discussed. Special attention is given to their evaluation.Different datasets allowing a quantitative evaluation of the accuracy of the registration algorithms, also realizedduring this thesis, and made public, are also discussed. Such data are extremely important because they respondto a lack of evaluation data needed in order to evaluate the registration error in a quantitative way, and thus tocompare the different algorithms. The modeling of the illumination of the laparoscopic scene, allowing one toextract strong constraints between the data to be registered and the surface of the observed organ, and thus tobe used to constrain these registration problems, is also discussed. This manuscript has seven parts. The firstdeals with the context surrounding this thesis. Minimally invasive surgery is presented as well as various generalcomputer vision problems which, when applied to the medical context, allow the definition of computer-assistedsurgery. The second part deals with the prerequisites for reading the thesis. The pre-processing of pre-operativeand per-operative data, before their use by the presented registration algorithms, is thus discussed. The thirdpart corresponds to the registration of hepatic data in laparoscopy, and the evaluation associated with thisproblems. The fourth part deals with the problem of postural registration. The fifth part proposes a modellingof the lighting in laparoscopy which can be used to obtain strong constraints between the observed surfaceand the laparoscopic images. The sixth part proposes a use of the light models discussed in the previous partin order to refine and densify reconstructions of the laparoscopic scene. Finally, the seventh and last partcorresponds to our conclusions regarding the issues addressed during this thesis, and to future work
11

Simon, Franck. "Découverte causale sur des jeux de données classiques et temporels. Application à des modèles biologiques." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS528.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur le domaine de la découverte causale, c’est-à-dire la construction de graphes causaux à partir de données observées, et en particulier, la découverte causale temporelle et la reconstruction de larges réseaux de régulation de gènes. Après un bref historique, ce mémoire introduit les principaux concepts, hypothèses et théorèmes aux fondements des graphes causaux ainsi que les deux grandes approches : à base de scores et à base de contraintes. La méthode MIIC (Multivariate Information-based Inductive Causation), développée au sein de notre laboratoire est ensuite décrite avec ses dernières améliorations : Interpretable MIIC. Les problématiques et solutions mises en œuvre pour construire une version temporelle (tMIIC) sont exposées ainsi que les benchmarks traduisant les avantages de tMIIC sur d’autres méthodes de l’état de l’art. L’application à des séquences d’images prises au microscope d’un environnement tumoral reconstitué sur des micro-puces permet d’illustrer les capacités de tMIIC à retrouver, uniquement à partir des données, des relations connues et nouvelles. Enfin, cette thèse introduit l’utilisation d’un a priori de conséquence pour appliquer la découverte causale à la reconstruction de réseaux de régulation de gènes. En posant l’hypothèse que tous les gènes, hormis les facteurs de transcription, sont des conséquences, il devient possible de reconstruire des graphes avec des milliers de gènes. La capacité à identifier des facteurs de transcription clés de novo est illustrée par une application à des données de séquençage d’ARN en cellules uniques avec identification de deux facteurs de transcription susceptibles d’être impliqués dans le processus biologique d’intérêt
This thesis focuses on the field of causal discovery : the construction of causal graphs from observational data, and in particular, temporal causal discovery and the reconstruction of large gene regulatory networks. After a brief history, this thesis introduces the main concepts, hypotheses and theorems underlying causal graphs as well as the two main approaches: score-based and constraint-based methods. The MIIC (Multivariate Information-based Inductive Causation) method, developed in our laboratory, is then described with its latest improvements: Interpretable MIIC. The issues and solutions implemented to construct a temporal version (tMIIC) are presented as well as benchmarks reflecting the advantages of tMIIC compared to other state-of-the-art methods. The application to sequences of images taken with a microscope of a tumor environment reconstituted on microchips illustrates the capabilities of tMIIC to recover, solely from data, known and new relationships. Finally, this thesis introduces the use of a consequence a priori to apply causal discovery to the reconstruction of gene regulatory networks. By assuming that all genes, except transcription factors, are only consequence genes, it becomes possible to reconstruct graphs with thousands of genes. The ability to identify key transcription factors de novo is illustrated by an application to single cell RNA sequencing data with the discovery of two transcription factors likely to be involved in the biological process of interest
12

Soler, Maxime. "Réduction et comparaison de structures d'intérêt dans des jeux de données massifs par analyse topologique." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS364.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons différentes méthodes, basées sur l'analyse topologique de données, afin de répondre aux problématiques modernes concernant l'analyse de données scientifiques. Dans le cas de données scalaires, extraire un savoir pertinent à partir de données statiques, de données qui varient dans le temps, ou données d'ensembles s'avère de plus en plus difficile. Nos approches pour la réduction et l'analyse de telles données reposent sur l'idée de définir des structures d'intérêt dans les champs scalaires à l’aide d’abstractions topologiques. Dans un premier temps, nous proposons un nouvel algorithme de compression avec pertes offrant de fortes garanties topologiques, afin de préserver les structures topologiques tout au long de la compression. Des extensions sont proposées pour offrir un contrôle supplémentaire sur l'erreur géométrique. Nous ciblons ensuite les données variables dans le temps en proposant une nouvelle méthode de suivi des structures topologiques, basée sur des métriques topologiques. Ces métriques sont étendues pour être plus robustes. Nous proposons un nouvel algorithme efficace pour les calculer, obtenant des accélérations de plusieurs ordres de grandeur par rapport aux approches de pointe. Enfin, nous appliquons et adaptons nos méthodes aux données d'ensemble relatives à la simulation de réservoir, dans un cas de digitation visqueuse en milieu poreux. Nous adaptons les métriques topologiques pour quantifier l’écart entre les simulations et la vérité terrain, évaluons les métriques proposées avec le retour d’experts, puis implémentons une méthode de classement in-situ pour évaluer la fidélité des simulations
In this thesis, we propose different methods, based on topological data analysis, in order to address modern problematics concerning the increasing difficulty in the analysis of scientific data. In the case of scalar data defined on geometrical domains, extracting meaningful knowledge from static data, then time-varying data, then ensembles of time-varying data proves increasingly challenging. Our approaches for the reduction and analysis of such data are based on the idea of defining structures of interest in scalar fields as topological features. In a first effort to address data volume growth, we propose a new lossy compression scheme which offers strong topological guarantees, allowing topological features to be preserved throughout compression. The approach is shown to yield high compression factors in practice. Extensions are proposed to offer additional control over the geometrical error. We then target time-varying data by designing a new method for tracking topological features over time, based on topological metrics. We extend the metrics in order to overcome robustness and performance limitations. We propose a new efficient way to compute them, gaining orders of magnitude speedups over state-of-the-art approaches. Finally, we apply and adapt our methods to ensemble data related to reservoir simulation, for modeling viscous fingering in porous media. We show how to capture viscous fingers with topological features, adapt topological metrics for capturing discrepancies between simulation runs and a ground truth, evaluate the proposed metrics with feedback from experts, then implement an in-situ ranking framework for rating the fidelity of simulation runs
13

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
14

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
15

Chamekh, Rabeb. "Stratégies de jeux pour quelques problèmes inverses." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4103.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail de thèse est la résolution du problème de couplage de complétion des données et identification des paramètres. Le problème de Cauchy est un problème de détermination des mesures sur une partie inaccessible du bord d’un solide à partir des données surabondantes sur le bord. L’identification des paramètres est un problème de détermination du paramètre de système. Ces deux problèmes sont connus pour être mal posés au sens d’Hadamard. Le mémoire de thèse se divise en quatre parties. La première partie est consacrée à une étude bibliographique. Dans le deuxième chapitre, nous avons appliqué la théorie des jeux pour la résolution du problème de couplage de complétion des données et identification de conductivité en électrocardiographie. On a évoqué la question d ’identifiabilité de la conductivité. On a montré l’unicité de ce paramètre en utilisant seulement les données de Cauchy sur une partie du bord. Nos expériences numériques ciblent les applications médicales en électrocardiographie. Nous avons appliqué notre procédure dans un thorax bidimensionnel et tridimensionnel. La troisième partie est consacré à la résolution du problème de couplage en élasticité linéaire en appliquant la stratégie des jeux. Une étude numérique a été effectué où on a considéré une configuration particulière pour assurer l’identifiabilité des paramètres. Dans la dernière partie, on s’intéresse à un problème de thermoélasticité. Il s’agit de coupler deux disciplines différentes, la thermique et l’élasticité. Le problème de l’identification de fissure est une application naturelle dans ce cas
In this PHD-Thesis, we focused on solving the coupling problem of data completion and parameter identification. The Cauchy problem is a problem of identification of boundary condition on a part of the boundary from overabundant data on the remaining part. Parameter identification is a problem of the system parameter. These two problems are known to be ill-posed in the sense of Hadamard. This Thesis is divided into four parts. The first part is dedicated to a bibliography study. In the second chapter, we applied the game theory on the resolution of the coupling problem of data completion and the conductivity identification in electrocardiography. We talked about the identifiability of the conductivity. We have shown the uniqueness of this parameter using only the Cauchy data on a part of the edge. Our numerical experiments target medical applications in electrocardiography. We applied our procedure in a two-dimensional and three-dimensional thorax. The third part is dedicated to the resolution of the coupling problem in linear elasticity applying the game theory. A numerical study has been done where we considered a particular configuration to ensure the parameters identifiability. In the last part, we are interested in a problem of thermoelasticity. It’s about coupling two different disciplines : thermal and elasticity. The problem of crack identification is a natural application in this case
16

Istiqomah, Istiqomah. "Solides organiques dans les petits corps glacés : approches expérimentales et interprétation des données spectrales issues de mission VIRTIS/Rosetta." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALU006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mission spatiale Rosetta a exploré la comète 67P 67P/Churyumov-Gerasimenko entre Juillet 2014 et Septembre 2016. Pendant deux ans, des cartographies du noyau dans le visible et l’infrarouge ont été conduites par l’instrument VIRTIS (Visible InfraRed Thermal Imaging Spectrometer). Cet instrument a révélé une surface rougissante très sombre, interprétée par la présence d’un composé carboné réfractaire mélangé à des minéraux opaques (alliages Fe-Ni et/ou pyrrhotite). VIRTIS a aussi révél, pour la première fois dans le cas d’une comète, une bande large centrée à 3.2 µm. La nature de cette bande n’était pas clairement identifiée au début de cette thèse, et deux composés semi-volatile étaient suspectés : l’ion ammonium et un/des acides carboxyliques.Dans cette thèse, nous avons exploré ces deux hypothèses au travers d’expériences de laboratoire. Nous avons en premier lieu conduit des mesures FTIR en transmission sur des acides carboxyliques l’état solide et des sels d’ammonium. Dans un second temps, nous avons collectés des spectres de réflectance de matériaux modèles de la croûte cométaire. Une attention particulière a été déployée à la synthèse de ces matériaux modèle, et nous avons développé des protocoles dédiés de broyage et de mélange. Nous montrons que les matériaux modèle les plus représentatif de la croûte cométaire sont des résidus de sublimation formé en chambre sous vide à partir de mélange glace + réfractaires + semi-volatiles. Ils rendent bien compte de son état finement divisé et de forte porosité. Nos expériences montrent que la bande à 3.2 µm dans les spectres VIRTIS est liée à la présence de l’ion ammonium, qui semble ubiquite à la surface de la comète. Ces sels d’ammonium constitue un nouveau réservoir d’azote cométaire, et pourrait, au moins partiellement, rendre compte de l’azote manquant dans les comètes.La concentration des sels d’ammonium n’a toutefois pas pu être déterminée. Nos expériences ne montrent pas de corrélation entre la profondeur de la bande et la tenur en ions ammonium dans les échantillons, montrant que les paramètres contrôlant l’intensité de cette bande ne sont pas élucidés. Ce résult renvoie à la question difficile de la caractérisation de la porosité des échantillons et de leur géométrie complexe d’un point de vue topologique. La distribution en taille de grain n’est qu’un paramètre parmi d’autres, and les études futures devront se concentrer sur ce point. Enfin, l’approche de modélisation basée sur de modèles de Hapke n’est pas adaptée à ce type de matériaux très sombre, and les résultats publiés antérieurement doivent être considérés avec prudence
The Rosetta space mission explored comet 67P/Churyumov-Gerasimenko between July 2014 and September 2016. During two years, extensive mappings in the visible and infrared ranges have been achieved by the VIRTIS imaging spectrometer (Visible InfraRed Thermal Imaging Spectrometer). This instrument has revealed a very dark and reddish surface, which has been interpreted by the presence of a dark carbonaceous material mixed up with opaque minerals (presumable Fe-Ni alloys and pyrrhotite). VIRTIS has also revealed, for the first for a comet, a broad band at 3.2 µm. The nature of this band was unclear at the beginning of this thesis, and two main semi-volatile compounds were suspected: ammonium salts and carboxylic acids.In this thesis, we have investigated these two hypotheses through laboratory experiments. We first conducted FTIR transmission experiments on pure solid carboxylic acids and ammonium salts. In a second step, we collected reflectance spectra of analogs of the refractory crust. A particular attention was devoted to the production of such analogs, and we developed dedicated grinding and mixing protocols. We found that the most suitable analogs are those produced from the sublimation of ice + refractory + semi-volatile mixtures in a vacuum chamber. They account well for the fine-grained and highly porous cometary material. Our experiments show that the 3.2 µm band in VIRTIS spectra is consistent with the presence of ammonium salts, which are ubiquitous across the surface of the comet. These ammonium salts constitute a new reservoir of nitrogen in comet, which might at least partially account for the missing nitrogen in comets.The abundance of the ammonium salt could however not be determined. Our experiments reveal the lack of between the band depth and the ammonium abundance in the samples, pointing that the parameters that control the band depth are not elucidated yet. This result points to the difficult question of the characterization of the porous texture of the sublimation residues and of their complex geometries. The grain size distribution is definitely only one parameter among other ones, and future studies should focus on this point. At last, the modeling approaches based on Hapke models are definitely not suitable for these dark semi-volatile bearing materials, and great care should be devoted with values published so far in literature
17

Laugier, Claire. "Contribution à l'étude des infestations par des petits strongles chez le cheval en Normandie : données épidemiologiques et aspects lésionnels." Montpellier 2, 2002. http://www.theses.fr/2002MON20125.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Firmo, Drumond Thalita. "Apports croisées de l'apprentissage hiérarchique et la modélisation du système visuel : catégorisation d'images sur des petits corpus de données." Thesis, Bordeaux, 2020. https://tel.archives-ouvertes.fr/tel-03129189.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux neuronaux convolutifs profonds ("deep convolutional neural networks" ou DCNN) ont récemment révolutionné la reconnaissance d'objets à grande échelle, modifiant les pratiques en vision par ordinateur, consistant à définir des caractéristiques représentatives "à la main", désormais apprises de façon hiérarchique à partir des données, tout en les classifiant. Fort de la progression des performances matérielles, on exploite efficacement des quantités toujours croissantes d'images recueillies en ligne. Mais, dans des domaines spécifiques, comme en santé ou pour certaines applications, les données sont moins abondantes, et les coûts d'étiquetage par des experts sont plus élevés. Cette rareté conduit à la question centrale de cette thèse : Ces domaines à données limitées peuvent-ils bénéficier des avantages des DCNN pour la classification des images ? Ce travail repose sur une étude approfondie de la littérature, divisée en deux parties principales, avant de proposer des modèles et des mécanismes originaux, expérimentés.La première partie couvre la reconnaissance des objets d'un double point de vue. Tout d'abord, la fonction visuelle biologique, est comparée et contrastée avec la structure, la fonction et les capacités des modèles DCNN. Puis, une revue de l'état-de-l'art identifie les principales catégories d'architectures et les innovations dans les DCNN récents. Cette base interdisciplinaire favorise l'identification des mécanismes — biologiquement et artificiellement inspirés — qui améliorent la reconnaissance d'images dans des situations difficiles. Le traitement récurrent en est un exemple clair : peu présent au niveau de la vision profonde, sauf le traitement aux vidéos — en raison du caractère naturellement séquentiel. Mais la biologie montre clairement qu'un tel traitement joue aussi un rôle dans l'affinement de notre perception d'une scène fixe. Ce thème est approfondi à travers une revue de la littérature consacrée aux architectures convolutionnelles récurrentes utilisées en catégorisation d'images.La deuxième partie se concentre sur notre question centrale~: l'apprentissage profond sur de petits corpus de données. Tout d'abord, le travail propose une discussion plus précise et détaillée de ce problème et de sa relation avec l'apprentissage hiérarchique des caractéristiques réalisé par des modèles profonds. Cette discussion est suivie d'une revue structurée du domaine, organisant et discutant les différentes voies possibles vers l'adaptation des modèles profonds à des données limitées. Plus qu'une simple liste, ce travail vise à trouver du sens dans la myriade d'approches du domaine, en regroupant les méthodes ayant un objectif ou un mécanisme d'action similaire, pour guider le développement d'application particulières, à petits corpus. Cette étude est complétée par une analyse expérimentale, explorant l'apprentissage de petits jeux de données avec des modèles et mécanismes originaux (précédemment publié comme papier de journal).En conclusion, l'apprentissage profond sur des petits corpus de données peut donner de bons résultats, si cela se fait de manière réfléchie. Au niveau des données, il faut essayer de recueillir plus d'informations à partir de sources de données supplémentaires connexes. Au niveau de la complexité, l'architecture et les méthodes d'entraînement peuvent être calibrées afin de tirer le meilleur parti de toute connaissance spécifique au domaine. Des propositions sont discutées en détail au fil du document. Il existe de multiples façons de réduire la complexité de l'apprentissage profond avec de petits échantillons de données, mais il n'y a pas de solution universelle. Chaque méthode a ses propres inconvénients et difficultés pratiques, devant toujours être adaptée spécifiquement à l'application, c'est-à-dire à la tâche perceptive à accomplir
Deep convolutional neural networks (DCNN) have recently protagonized a revolution in large-scale object recognition. They have changed the usual computer vision practices of hand-engineered features, with their ability to hierarchically learn representative features from data with a pertinent classifier. Together with hardware advances, they have made it possible to effectively exploit the ever-growing amounts of image data gathered online. However, in specific domains like healthcare and industrial applications, data is much less abundant, and expert labeling costs higher than those of general purpose image datasets. This scarcity scenario leads to this thesis' core question: can these limited-data domains profit from the advantages of DCNNs for image classification? This question has been addressed throughout this work, based on an extensive study of literature, divided in two main parts, followed by proposal of original models and mechanisms.The first part reviews object recognition from an interdisciplinary double-viewpoint. First, it resorts to understanding the function of vision from a biological stance, comparing and contrasting to DCNN models in terms of structure, function and capabilities. Second, a state-of-the-art review is established aiming to identify the main architectural categories and innovations in modern day DCNNs. This interdisciplinary basis fosters the identification of potential mechanisms - inspired both from biological and artificial structures — that could improve image recognition under difficult situations. Recurrent processing is a clear example: while not completely absent from the "deep vision" literature, it has mostly been applied to videos — due to their inherently sequential nature. From biology however it is clear such processing plays a role in refining our perception of a still scene. This theme is further explored through a dedicated literature review focused on recurrent convolutional architectures used in image classification.The second part carries on in the spirit of improving DCNNs, this time focusing more specifically on our central question: deep learning over small datasets. First, the work proposes a more detailed and precise discussion of the small sample problem and its relation to learning hierarchical features with deep models. This discussion is followed up by a structured view of the field, organizing and discussing the different possible paths towards adapting deep models to limited data settings. Rather than a raw listing, this review work aims to make sense out of the myriad of approaches in the field, grouping methods with similar intent or mechanism of action, in order to guide the development of custom solutions for small-data applications. Second, this study is complemented by an experimental analysis, exploring small data learning with the proposition of original models and mechanisms (previously published as a journal paper).In conclusion, it is possible to apply deep learning to small datasets and obtain good results, if done in a thoughtful fashion. On the data path, one shall try gather more information from additional related data sources if available. On the complexity path, architecture and training methods can be calibrated in order to profit the most from any available domain-specific side-information. Proposals concerning both of these paths get discussed in detail throughout this document. Overall, while there are multiple ways of reducing the complexity of deep learning with small data samples, there is no universal solution. Each method has its own drawbacks and practical difficulties and needs to be tailored specifically to the target perceptual task at hand
19

Legtchenko, Sergey. "Adaptation dynamique des architectures réparties pour jeux massivement multijoueurs." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00931865.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant la dernière décennie, Les jeux massivement multijoueurs (MMOGs) sont devenus extrêmement populaires et comptent désormais plus de 20 millions d'utilisateurs actifs à travers le monde. Les MMOGs sont des systèmes distribués ayant des contraintes applicatives fortes en terme de cohérence de données, persistance, réactivité et passage à l'échelle. L'évolution des besoins applicatifs du MMOG au cours du temps est difficilement prévisible car dépendante du comportement des joueurs dans le monde virtuel. C'est pourquoi, malgré un important effort de recherche dans le domaine, aucune des architectures proposées ne satisfait pleinement toutes les contraintes requises. Cette thèse explore les capacités des architectures distribuées à s'adapter à la charge applicative grâce à une prise en compte du comportement des joueurs lors de l'exécution. Le système est alors capable de détecter des évolutions qui sont difficiles à prévoir à priori, et dynamiquement allouer les ressources nécessaires à l'application. Nous décrivons différentes techniques de surveillance des joueurs et proposons des moyens de prendre en compte ces informations au niveau de l'architecture. Nos expériences, effectuées dans des conditions réalistes, montrent que nos mécanismes ont un surcoût limité et permettent d'améliorer les performances globales du système.
20

Roy-Pomerleau, Xavier. "Inférence d'interactions d'ordre supérieur et de complexes simpliciaux à partir de données de présence/absence." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66994.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Malgré l’efficacité des réseaux pour représenter les systèmes complexes, de récents travaux ont montré que leur structure limite parfois le pouvoir explicatif des modèles théoriques, puisqu’elle n’encode que des relations par paire. Si une interaction plus complexe existe dans le système représenté, elle est automatiquement réduite à un groupe d’interactions par paire, c’est-à-dire d’ordre un. Il faut alors utiliser des structures qui prennent en compte les interactions d’ordre supérieur. Cependant, qu’elles soient ou non d’ordre supérieur, les interactions entre les éléments d’un système sont rarement explicites dans les jeux de données. C’est notamment le cas des données de présence/absence qui indiquent quelles espèces (animales, végétales ou autres) se retrouvent (ou non) sur un site d’observation sans indiquer les relations entre elles. L’objectif de ce mémoire est alors de développer une technique d’inférence pour dénicher les interactions d’ordre supérieur au sein de données de présence/absence. Ici, deux cadres théoriques sont explorés. Le premier est basé sur la comparaison entre la topologie des données, obtenue grâce à une hypothèse souple, et celle d’un ensemble aléatoire. Le second utilise plutôt les modèles log-linéaire et les tests d’hypothèses pour inférer les interactions une à une jusqu’à l’ordre désiré. Ce cadre a permis d’élaborer plusieurs méthodes d’inférence qui génèrent des complexes simpliciaux (ou des hypergraphes) qui peut être analysés grâce aux outils standards de la science des réseaux en plus de l’homologie. Afin de valider ces méthodes, nous avons développé un modèle génératif de données de présence/absence dans lesquelles les véritables interactions sont connues. Des résultats concrets ont également été obtenus pour des jeux de données réelles. Notamment, à partir de données de présence/absence d’oiseaux nicheurs du Québec, nous avons réussi à inférer des cooccurrences d’ordre deux.
Despite the effectiveness of networks to represent complex systems, recent work has shownthat their structure sometimes limits the explanatory power of the theoretical models, sinceit only encodes dyadic interactions. If a more complex interaction exists in the system, it isautomatically reduced to a group of pairwise interactions that are of the first order. We thusneed to use structures that can take higher-order interactions into account. However, whetherrelationships are of higher order or not is rarely explicit in real data sets. This is the case ofpresence/absence data, that only indicate which species (of animals, plants or others) can befound (or not) on a site without showing the interactions between them.The goal of this project is to develop an inference method to find higher-order interactionswithin presence/absence data. Here, two frameworks are examined. The first one is based onthe comparison of the topology of the data, obtained with a non-restrictive hypothesis, andthe topology of a random ensemble. The second one uses log-linear models and hypothesistesting to infer interactions one by one until the desired order. From this framework, we havedevelopped several inference methods to generate simplicial complexes (or hypergraphs) thatcan be studied with regular tools of network science as well as homology. In order to validatethese methods, we have developed a generative model of presence/absence data in which thetrue interactions are known. Results have also been obtained on real data sets. For instance,from presence/absence data of nesting birds in Québec, we were able to infer co-occurrencesof order two
21

Lavallard, Anne. "Exploration interactive d'archives de forums : Le cas des jeux de rôle en ligne." Phd thesis, Université de Caen, 2008. http://tel.archives-ouvertes.fr/tel-00292617.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les forums sont des espaces de communication très utilisés sur Internet : publicset asynchrones, ils offrent une place pour exposer différents points de vue et alimenter les dé-bats ; permanents, ils gardent trace des activités passées. Leurs archives constituent une mined'informations pour la communauté qui a animé le forum ou pour des chercheurs. Elles sontsous-exploitées car la lecture à posteriori en est fastidieuse. La cohérence temporelle perdue, lecontexte de lecture est dificile à reconstituer sans une bonne connaissance préalable de l'his-toire du forum. Face au constat que les interfaces de lecture actuelles des forums, bien adaptéesà l'usage en temps réel, sont inadaptées à l'exploration des archives, nous proposons d'autresmodes de présentation. Le premier mode fait appel à des analyses statistiques sur la participa-tion au forum. Le deuxième mode propose des analyses textuelles sur le contenu des messages.La comparaison interne du lexique sans ressources externes permet des analyses robustes. L'in-teractivité avec le lecteur lui permet d'ajuster progressivement les paramètres de présentationet les ressources spécifiques pour mieux appréhender le contexte de lecture. La plate-forme Fo-rumExplor nous a permis de mettre en oeuvre ces nouvelles présentations, et de les évaluer enfonction de divers objectifs de lecture dans le contexte des jeux de rôle en ligne. D'autres expé-rimentations dans le cadre d'études de listes de diffusion d'enseignants montrent la portée et lecaractère générique d'un tel outil.
22

Teyssière, Gilles. "Processus d'appariements sur le marché du travail : une étude à partir de données d'une agence locale de l'ANPE." Aix-Marseille 2, 1991. http://www.theses.fr/1991AIX24001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est la détermination des éléments explicatifs de la décision d'un employeur d'embaucher un travailleur rencontré par le biais de l'agence nationale pour l'emploi. Le cadre théorique utilisé pour cette étude est constitué par les modèles d'appariement. Ces modèles expliquent le salaire reçu par le demandeur d'emploi en fonction de sa productivité (ou de son niveau d'études) et des possibilités de rencontres alternatives des deux agents. Nous adaptons ce cadre théorique aux observations de rencontre dont nous disposons, et nous expliquons la probabilité qu'un demandeur soit embauché à l'aide d'un modèle Logit emboîté. Les variables explicatives de ce modèle sont constituées par les caractéristiques individuelles du demandeur d'emploi (telles l'âge, le sexe, la situation de famille, le niveau d'études, son passé sur le marché du travail. . . ) Et les caractéristiques du poste de travail offert (telles le type de contrat offert, le salaire proposé. . . ) Et les possibilités de rencontres alternatives de l'employeur. Parallèlement, nous expliquons, à l'aide de modèle de survie, le comportement d'embauche de l'employeur. Ces résultats d'estimation nous permettent d'observer l'existence d'une segmentation du marché du travail sur la base du niveau d'études des demandeurs d'emploi. Un demandeur d'emploi est embauché si son niveau d'études est supérieur à un niveau fixé par l'employeur
The purpose of this thesis is to determine the explicative elements of employer's hiring decision when he meets a worker through the national agency for employment. We use for this study a theoretical framework constituted by matching models. These models explain the level of wage that receive the worker by this labour productivity (or his level of education) and the alternative meeting opportunities of the two agents. We adapt these models to a sample of observed meetings and we explain the worker's hiring probability with a nested Logit model. We use for explicative variables the individual characteristics of the worker (like age, sex, marital status, level of education, his past situation in the labour market. . . ), the characteristics of the vacancies (like type of labour contract, offered wage. . . ) And the employer's alternative meeting opportunities. . . Moreover, we explain the employers hiring behaviour throughout time with survival models. We can observe from the estimation results a segmentation in the labor market on the basis of worker's level of education. A worker is hired only if his level of education is greater than a level fixed by the employer
23

Marjanović, David. "Phylogeny of the limbed vertebrates with special consideration of the origin of the modern amphibians." Paris 6, 2010. http://www.theses.fr/2010PA060690.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Clement, Virginie. "Estimation des paramètres génétiques des petits ruminants en milieu d'élevage traditionnel au Sénégal. Importance de la structure des données et du choix du modèle d'analyse." Paris, Institut national d'agronomie de Paris Grignon, 1999. http://www.theses.fr/1999INAP0031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude des potentialités des races locales en matière de sélection génétique est un enjeu important pour les pays tropicaux qui se tournent peu a peu vers les nouvelles techniques d'amélioration du bétail. Apres une approche bibliographique permettant d'évoquer différents exemples de contrôle de performances et d'amélioration génétique dans les milieux a fortes contraintes, les paramètres génétiques de variables relatives à la reproduction, la croissance et la résistance au parasitisme gastro-intestinal ont été estimés chez des petits ruminants du Sénégal. Dans les pays tropicaux de manière générale, et au Sénégal en particulier, l'élevage est généralement de type extensif. Cela se traduit par de faibles échanges de reproducteurs entre élevages, ce qui accentue les risques de disconnexion génétique au niveau de la population, et par une non identification des paternités, ce qui peut entrainer des problèmes d'estimabilité des paramètres génétiques, notamment pour des caractères à effets directs et maternels. Une solution alternative, trouvée à plusieurs reprises dans la bibliographie, pour estimer les composantes de la variance de caractères à effets directs et maternels en l'absence des paternités, consiste à négliger les effets maternels, bien que les conséquences d'une telle approche n'aient rarement été évoquées. Tous ces problèmes posés par l'analyse des données du Sénégal ont constitué la deuxième partie de ce travail. L'objectif était d'étudier, par l'intermédiaire de simulations, les conséquences d'une structure de données de type Sénégal (paternités non identifiées et absence de connexion génétique entre troupeaux), ainsi que l'utilisation de différents modèles d'analyse sur l'estimation des paramètres génétiques, de façon à s'assurer de la validité des résultats obtenus sur les données africaines.
25

Edoh-Alové, Djogbénuyè Akpé. "Conception et développement d'un service Web de contexte spatial dédié aux téléphones intelligents dans le cadre de jeux éducatifs interactifs." Master's thesis, Université Laval, 2012. http://hdl.handle.net/20.500.11794/23516.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Actuellement, avec l’essor de l’informatique ubiquitaire, un intérêt grandissant est porté à l’exploitation du contexte de l’utilisateur pour une adaptation des applications et de leur contenu à ses besoins et activités en temps réel, dans divers domaines (tourisme, maisons intelligents, hôpitaux). De cet intérêt résulte bon nombre de projets traitant la définition et l’élaboration de modèles de contexte et de plateformes de gestion dudit contexte. Dans le cadre du projet GéoÉduc3D, l’utilisation du contexte pour l’amélioration de l’aspect immersif et interactif de jeux éducatifs revêt un intérêt certain. Ce cadre applicatif (jeux éducatifs, réalité augmentée, téléphones intelligents) est complètement différent et amène la question de l’interopérabilité peu abordée dans les précédents travaux. Nos travaux ont donc pour objectif de concevoir et d’implémenter une solution informatique dédiée à l’acquisition et à la diffusion de contexte spatial dans un environnement multi-joueurs sur et pour des téléphones intelligents. Dans ce but, nous proposons tout d’abord une nouvelle définition et une modélisation du contexte spatial adapté à notre cadre particulier. Ensuite, nous présentons l’architecture d’un système orienté service pour la gestion de cette information contextuelle. Afin de tester notre approche, un prototype de service Web a été élaboré selon trois fonctions principales : récupération des informations auprès des téléphones intelligents ; enregistrement des données dans la base de données et interrogation flexible en mode synchrone ou asynchrone des données. Ce travail de recherche ouvre ainsi la voie à la conception et au développement d’applications de jeux éducatifs, destinées à n’importe quel type de téléphone intelligent, sensible au contexte spatial des joueurs dans un environnement multi-joueurs.
Currently, with the rise of ubiquitous computing, one is growing interest in using the user context, for adapting applications and their contents to users’ needs and activities in real time, in different fields (tourism, smart homes, and hospitals). Many projects dealing with the definition and context models and management platforms have emerged. In the GeoEduc3D project, exploiting the context to improve the immersive and interactive aspects of interactive educational games is to be explored. This particular application framework (serious games, augmented reality, smart phones) is completely different and brings the issue of interoperability, which was not really addressed in previous work. Therefore, our work aims to design and implement a solution dedicated to the acquisition and dissemination of spatial context in a multi-players environment on and for smart phones. For this purpose, we first propose a definition and modeling of spatial context. Then we define the architecture of a service-oriented system for managing that information. To test our approach, a Web service prototype was developed according to three main functions: retrieving information from smart phones, storing data in the database and query flexible synchronous or asynchronous data. This research opens the way for the design and development of context-aware serious games applications for any type of smart phone, in a multiplayer environment.
26

De, Moliner Anne. "Estimation robuste de courbes de consommmation électrique moyennes par sondage pour de petits domaines en présence de valeurs manquantes." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK021/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à l'estimation robuste de courbes moyennes ou totales de consommation électrique par sondage en population finie, pour l'ensemble de la population ainsi que pour des petites sous-populations, en présence ou non de courbes partiellement inobservées.En effet, de nombreuses études réalisées dans le groupe EDF, que ce soit dans une optique commerciale ou de gestion du réseau de distribution par Enedis, se basent sur l'analyse de courbes de consommation électrique moyennes ou totales, pour différents groupes de clients partageant des caractéristiques communes. L'ensemble des consommations électriques de chacun des 35 millions de clients résidentiels et professionnels Français ne pouvant être mesurées pour des raisons de coût et de protection de la vie privée, ces courbes de consommation moyennes sont estimées par sondage à partir de panels. Nous prolongeons les travaux de Lardin (2012) sur l'estimation de courbes moyennes par sondage en nous intéressant à des aspects spécifiques de cette problématique, à savoir l'estimation robuste aux unités influentes, l'estimation sur des petits domaines, et l'estimation en présence de courbes partiellement ou totalement inobservées.Pour proposer des estimateurs robustes de courbes moyennes, nous adaptons au cadre fonctionnel l'approche unifiée d'estimation robuste en sondages basée sur le biais conditionnel proposée par Beaumont (2013). Pour cela, nous proposons et comparons sur des jeux de données réelles trois approches : l'application des méthodes usuelles sur les courbes discrétisées, la projection sur des bases de dimension finie (Ondelettes ou Composantes Principales de l'Analyse en Composantes Principales Sphériques Fonctionnelle en particulier) et la troncature fonctionnelle des biais conditionnels basée sur la notion de profondeur d'une courbe dans un jeu de données fonctionnelles. Des estimateurs d'erreur quadratique moyenne instantanée, explicites et par bootstrap, sont également proposés.Nous traitons ensuite la problématique de l'estimation sur de petites sous-populations. Dans ce cadre, nous proposons trois méthodes : les modèles linéaires mixtes au niveau unité appliqués sur les scores de l'Analyse en Composantes Principales ou les coefficients d'ondelettes, la régression fonctionnelle et enfin l'agrégation de prédictions de courbes individuelles réalisées à l'aide d'arbres de régression ou de forêts aléatoires pour une variable cible fonctionnelle. Des versions robustes de ces différents estimateurs sont ensuite proposées en déclinant la démarche d'estimation robuste basée sur les biais conditionnels proposée précédemment.Enfin, nous proposons quatre estimateurs de courbes moyennes en présence de courbes partiellement ou totalement inobservées. Le premier est un estimateur par repondération par lissage temporel non paramétrique adapté au contexte des sondages et de la non réponse et les suivants reposent sur des méthodes d'imputation. Les portions manquantes des courbes sont alors déterminées soit en utilisant l'estimateur par lissage précédemment cité, soit par imputation par les plus proches voisins adaptée au cadre fonctionnel ou enfin par une variante de l'interpolation linéaire permettant de prendre en compte le comportement moyen de l'ensemble des unités de l'échantillon. Des approximations de variance sont proposées dans chaque cas et l'ensemble des méthodes sont comparées sur des jeux de données réelles, pour des scénarios variés de valeurs manquantes
In this thesis, we address the problem of robust estimation of mean or total electricity consumption curves by sampling in a finite population for the entire population and for small areas. We are also interested in estimating mean curves by sampling in presence of partially missing trajectories.Indeed, many studies carried out in the French electricity company EDF, for marketing or power grid management purposes, are based on the analysis of mean or total electricity consumption curves at a fine time scale, for different groups of clients sharing some common characteristics.Because of privacy issues and financial costs, it is not possible to measure the electricity consumption curve of each customer so these mean curves are estimated using samples. In this thesis, we extend the work of Lardin (2012) on mean curve estimation by sampling by focusing on specific aspects of this problem such as robustness to influential units, small area estimation and estimation in presence of partially or totally unobserved curves.In order to build robust estimators of mean curves we adapt the unified approach to robust estimation in finite population proposed by Beaumont et al (2013) to the context of functional data. To that purpose we propose three approaches : application of the usual method for real variables on discretised curves, projection on Functional Spherical Principal Components or on a Wavelets basis and thirdly functional truncation of conditional biases based on the notion of depth.These methods are tested and compared to each other on real datasets and Mean Squared Error estimators are also proposed.Secondly we address the problem of small area estimation for functional means or totals. We introduce three methods: unit level linear mixed model applied on the scores of functional principal components analysis or on wavelets coefficients, functional regression and aggregation of individual curves predictions by functional regression trees or functional random forests. Robust versions of these estimators are then proposed by following the approach to robust estimation based on conditional biais presented before.Finally, we suggest four estimators of mean curves by sampling in presence of partially or totally unobserved trajectories. The first estimator is a reweighting estimator where the weights are determined using a temporal non parametric kernel smoothing adapted to the context of finite population and missing data and the other ones rely on imputation of missing data. Missing parts of the curves are determined either by using the smoothing estimator presented before, or by nearest neighbours imputation adapted to functional data or by a variant of linear interpolation which takes into account the mean trajectory of the entire sample. Variance approximations are proposed for each method and all the estimators are compared to each other on real datasets for various missing data scenarios
27

Dari, Bekara Kheira. "Protection des données personnelles côté utilisateur dans le e-commerce." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00923175.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'informatique et Internet en particulier favorisent grandement la collecte de données à l'insu de l'utilisateur, leur divulgation à des tiers et le croisement des données. La densité des activités humaines dans le monde numérique constitue donc un terrain fertile pour de potentielles atteintes à la vie privée des utilisateurs. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions centrées utilisateur, lui donnant davantage de contrôle sur ses données personnelles. Dans cette perspective, nous analysons le cadre légal français et européen pour en tirer des axes de protection. Nous spécifions ensuite les contraintes tirées de ces axes, en proposant de les introduire dans les modèles de politiques de sécurité existants. Ainsi, nous suggérons l'application d'un seul modèle pour le contrôle d'accès et la protection de la vie privée. Le modèle de contrôle d'accès doit être étendu par de nouvelles conditions et paramètres d'accès. Pour cela, nous définissons le langage XPACML (eXtensible Privacy aware Access Control Markup Language) conçu sur la base d'extensions apportées au modèle de contrôle d'accès XACML. Placés dans un contexte E-Commerce, nous avons défini un modèle sémantique permettant de représenter les contextes liés aux différentes transactions électroniques. Ainsi nous avons pu effectuer une génération dynamique des politiques XPACML en fonction du contexte en cours. A la quête d'une protection étendue des données personnelles, nous avons consacré la dernière partie de nos travaux aux négociations possibles qui peuvent être effectuées entre un utilisateur et un fournisseur de service. Ainsi nous avons proposé deux protocoles. Le premier porte sur la négociation des termes et conditions des politiques de protection des données, alors que le deuxième porte sur la négociation des données à dévoiler elles mêmes
28

Mareuil, Fabien. "DaDiModO un algorithme génétique pour l'étude de protéines à domaines à l'aide de données de RMN et de SAXS : application à la protéine ribosomale S1 d'Escherichia Coli." Paris 7, 2008. http://www.theses.fr/2008PA077191.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La compréhension des propriétés des macromolécules biologiques, en particulier des protéines, passe par la connaissance de leurs structures tridimensionnelles. Environ un millier de domaines différents suffisent à construire la plupart des protéines et il est estimé que la moitié des structures de ces domaines est résolue (Koonin et al. 2002). À terme, il sera possible d'obtenir au moins des modèles approchés de la structure des domaines composant une protéine. Mais il manquera toujours l'information sur le positionnement relatif des domaines. De ce fait, disposer d'un outil permettant de trouver ce positionnement à l'aide de données expérimentales rapides à acquérir est un enjeu important. Dans cette optique nous avons développé un algorithme permettant d'utiliser des données de RMN et de SAXS pour positionner les domaines d'une protéine multi-domaines. L'un des avantages de cet outil est de laisser toute liberté à l'utilisateur quant à la déformabilité des domaines. Nous avons validé notre méthode sur deux cas tests et ainsi montré que si la définition des domaines était suffisamment fine et les données expérimentales d'assez bonne qualité, on pouvait s'approcher de la solution structurale à moins de 1 À d'erreur. Nous avons ensuite utilisé notre méthode dans le cadre d'une étude structurale de deux fragment! de la protéine ribosomique S1, composée de six répétitions du domaine S1. Cette étude a porté su les fragments composés des domaines 3-4 et 4-5. La structure du domaine 4 a été déterminée Celles des domaines 3 et 5 ont été obtenues par modélisation par homologie. Notre étude nous permis de valider un modèle biologiquement pertinent pour le fragment 3-5
To increase our Knowledge about the biological properties of macromolecules, especially proteins, it is necessary to know their three-dimensional structures. About one thousand of different domains are sufficient to build most proteins and it is estimated that half of these domain structures is determined (Koonin et al. 2002). Eventually, it will be possible to obtain close models of protein domain structures. However the information concerning the relative position of the domains will always be missing. Hence, having a tool that finds the relative position of domains by using experimental data easy to obtain is a major issue. For that purpose, we have developed an algorithm that uses NMR and SAXS data to position the domains of a multi-domain protein. The main advantage of this tool is to leave the user free to choose the deformability of the domains. We validated our method on two test cases and thus showed that when the definition of domains is accurate enough and the experimental data are of fairly good quality, our program could approach the structural solution with an error of less than 1 A. We have then applied our method to the structural study of two fragments of the ribosomal protein S1 which is composed of six repetitions of the S1 domain. This study focused on the fragment; made of domains 3-4 and 4-5. The structure of the domain 4 was determined by NMR. The domain: 3 and 5 were obtained by homology modelling. Our study allowed us to validate a biologically relevant model of the fragment 3-5
29

Tremblay, Maxime. "Vision numérique avec peu d'étiquettes : segmentation d'objets et analyse de l'impact de la pluie." Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un besoin ayant toujours existé dans le domaine de la vision numérique est celui d'avoir accès à des ensembles d'images annotées. Les avancements scientifiques et technologiques ont exacerbé les besoins en données étiquetées; un modèle d'apprentissage profond peut nécessiter des milliers, voire des centaines de milliers (dépendamment de la complexité du problème), d'images étiquetées. Cela peut causer un problème puisque générer de grands ensembles de données étiquetées est une tâche longue et ardue. Est-il possible de travailler en vision numérique sans avoir à collecter et étiqueter des ensembles de données de plus en plus grands ? Dans le cadre de cette thèse, nous tentons de répondre à cette question sur deux fronts différents. Premièrement, nous avons développé une approche de détection et segmentation d'objets nécessitant peu de données d'entraînement. Cette approche, inspirée des modèles par les bag-of-words, modélise l'apparence et la forme des objets de façon éparse; la modélisation de la forme se fait par l'entremise d'un nouveau descripteur de forme. Deuxièmement, nous nous sommes penchés sur le fait que certains ensembles de données sont difficilement capturables et étiquetables. Nous nous sommes concentrés sur un exemple particulier, c'est-à-dire générer un ensemble d'images de scènes extérieures avec de la pluie dont les annotations consistent au taux de précipitation (mm/h). Notre solution consiste à augmenter des images réelles avec de la pluie synthétique. Si ces images augmentées sont suffisamment réalistes, il est possible d'expérimenter sur celles-ci comme si elles étaient des images de pluie réelle. Dans nos expérimentations, nous avons évalué l'effet de la pluie sur différents algorithmes de vision numérique et nous avons augmenté la robustesse de ceux-ci sur des images contenant de la vraie pluie.
30

Soler, Julien. "Orion, a generic model for data mining : application to video games." Thesis, Brest, 2015. http://www.theses.fr/2015BRES0035/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les besoins de l'industrie des jeux vidéo sont en constante évolution. Dans le domaine de l'intelligence artificielle, nous identifions dans le chapitre 1, les différents besoins de l'industrie dans ce domaine. Nous pensons que la conception d'une solution d'apprentissage de comportements par imitation qui soit fonctionnelle et efficace permettrait de couvrir la plupart de ces besoins. Dans le chapitre 2, nous montrons que les techniques d'extraction de données peuvent être très utiles pour offrir une telle solution. Cependant, ces techniques ne sont pas suffisantes pour construire automatiquement un comportement complet qui serait utilisable dans les jeux vidéo modernes. Dans le chapitre 3, nous proposons un modèle générique pour apprendre des comportements en imitant des joueurs humains : Orion. Ce modèle est composé de deux parties, un modèle structurel et un modèle comportemental. Le modèle structurel propose un framework généraliste d'exploration de données, fournissant une abstraction des différentes méthodes utilisées dans ce domaine de recherche. Ce framework nous permet de construire un outil d'usage général avec de meilleures possibilités de visualisation que les outils d'extraction de données existants. Le modèle comportemental est conçu pour intégrer des techniques d'exploration de données dans une architecture plus générale et repose sur les Behavior Trees. Dans le chapitre 4, nous illustrons comment nous utilisons notre modèle en mettant en oeuvre le comportement des joueurs dans les jeux Pong et UT3 en utilisant Orion. Dans le chapitre 5, nous identifions les améliorations possibles, à la fois de notre outil d'extraction de données et de notre modèle comportemental
The video game industry's needs are constantly changing. In the field of artificial intelligence, we identify inchapter 1, the different needs of industry in this area. We believe that the design of a learning behavior through imitation solution that is functional and efficient would cover most of these needs. In chapter 2, we show that data mining techniques can be very useful to provide such a solution. However, for now, these techniques are not sufficient to automatically build a comprehensive behavior that would be usable in modern video games. In chapter 3, we propose a generic model to learn behavior by imitating human players: Orion.This model consists of two parts, a structural model and a behavioral model. The structural model provides a general data mining framework, providing an abstraction of the different methods used in this research. This framework allows us to build a general purpose tool with better possibilities for visualizing than existing data mining tools. The behavioral model is designed to integrate data mining techniques in a more general architecture and is based on the Behavior Trees. In chapter 4, we illustrate how we use our model by implementing the behavior of players in the Pong and Unreal Tournament 3 games using Orion. In chapter 5,we identify possible improvements, both of our data mining framework and our behavioral model
31

Allesiardo, Robin. "Bandits Manchots sur Flux de Données Non Stationnaires." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS334/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème des bandits manchots est un cadre théorique permettant d'étudier le compromis entre exploration et exploitation lorsque l'information observée est partielle. Dans celui-ci, un joueur dispose d'un ensemble de K bras (ou actions), chacun associé à une distribution de récompenses D(µk) de moyenne µk Є [0, 1] et de support [0, 1]. A chaque tour t Є [1, T], il choisit un bras kt et observe la récompense y kt tirée depuis D (µkt). La difficulté du problème vient du fait que le joueur observe uniquement la récompense associée au bras joué; il ne connaît pas celle qui aurait pu être obtenue en jouant un autre bras. À chaque choix, il est ainsi confronté au dilemme entre l'exploration et l'exploitation; explorer lui permet d'affiner sa connaissance des distributions associées aux bras explorés tandis qu'exploiter lui permet d'accumuler davantage de récompenses en jouant le meilleur bras empirique (sous réserve que le meilleur bras empirique soit effectivement le meilleur bras). Dans la première partie de la thèse nous aborderons le problème des bandits manchots lorsque les distributions générant les récompenses sont non-stationnaires. Nous étudierons dans un premier temps le cas où même si les distributions varient au cours du temps, le meilleur bras ne change pas. Nous étudierons ensuite le cas où le meilleur bras peut aussi changer au cours du temps. La seconde partie est consacrée aux algorithmes de bandits contextuels où les récompenses dépendent de l'état de l'environnement. Nous étudierons l'utilisation des réseaux de neurones et des forêts d'arbres dans le cas des bandits contextuels puis les différentes approches à base de méta-bandits permettant de sélectionner en ligne l'expert le plus performant durant son apprentissage
The multi-armed bandit is a framework allowing the study of the trade-off between exploration and exploitation under partial feedback. At each turn t Є [1,T] of the game, a player has to choose an arm kt in a set of K and receives a reward ykt drawn from a reward distribution D(µkt) of mean µkt and support [0,1]. This is a challeging problem as the player only knows the reward associated with the played arm and does not know what would be the reward if she had played another arm. Before each play, she is confronted to the dilemma between exploration and exploitation; exploring allows to increase the confidence of the reward estimators and exploiting allows to increase the cumulative reward by playing the empirical best arm (under the assumption that the empirical best arm is indeed the actual best arm).In the first part of the thesis, we will tackle the multi-armed bandit problem when reward distributions are non-stationary. Firstly, we will study the case where, even if reward distributions change during the game, the best arm stays the same. Secondly, we will study the case where the best arm changes during the game. The second part of the thesis tacles the contextual bandit problem where means of reward distributions are now dependent of the environment's current state. We will study the use of neural networks and random forests in the case of contextual bandits. We will then propose meta-bandit based approach for selecting online the most performant expert during its learning
32

Payrastre, Olivier. "Faisabilité et utilité du recueil de données historiques pour l'étude des crues extrêmes de petits cours d'eau - Etude du cas de quatre bassins versants affluents de l'Aude." Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001792.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire traite de l'estimation de la fréquence d'occurrence des crues éclair, dans des petits cours d'eau de la région méditerranéenne. Pour préciser l'étude statistique de ces événements, relativement rares, l'idée développée a été de reconstituer des historiques de crues sur une période pouvant aller jusqu'à deux siècles. Quatre petits cours d'eau affluents de l'Aude, dont la surface n'excède pas 200 km2, ont été étudiés. Une méthodologie de recherche d'informations historiques, déjà appliquée avec succès à des cours d'eau français plus importants, a été reprise. Elle a permis de mettre en évidence les fonds d'archives dignes d'intérêt dans le cas de l'étude des cours d'eau de petite taille. Ces fonds sont essentiellement locaux (archives départementales, et archives des services de l'état chargés de l'hydrométrie et de l'annonce des crues). Les fonds à caractère national (Archives Nationales, fonds M.Pardé, fonds historique de l'ENPC), en revanche, présentent un intérêt secondaire, et l'exploitation des archives de la presse s'est également avérée décevante. Les documents d'archives finalement valorisés proviennent pour l'essentiel des Services des Ponts et Chaussées, et des Services Vicinaux (séries S et O aux Archives Départementales). Ces documents s'avèrent suffisamment riches, dans les quatre cas étudiés, pour reconstituer des historiques de crues d'une durée d'un à deux siècles. Il est également possible d'évaluer le seuil de perception associé à ces séries, ainsi que le débit de pointe des principales crues. Les estimations de débit réalisées restent toutefois incertaines et ont pour cette raison été représentées sous forme d'intervalles de débits possibles. L'exploitation statistique de ces séries met tout d'abord en évidence l'hétérogénéité des débits de crues parmi les cours d'eau étudiés. L'intérêt des données historiques est ensuite clairement mis en évidence, à la fois pour effectuer le choix de distributions statistiques aptes à représenter les séries observées, puis pour préciser le calage de ces distributions. Il apparaît surtout que les risques d'erreurs sont extrêmement importants, lorsque ces méthodes consistant à ajuster des distributions statistiques aux séries observées, sont appliquées à partir des séries systématiques de courte durée. Les informations historiques permettent de fiabiliser ces méthodes, même lorsque les informations valorisées sont très incomplètes (par exemple limitées au décompte des dépassements d'un seuil ou à une crue historique unique). Par comparaison, la méthode du Gradex apparaît beaucoup plus robuste lorsque seules les données systématiques sont disponibles. Elle donne des résultats très cohérents avec les données historiques, et reproduit notamment très bien, à condition d'évaluer correctement le facteur de forme, la variabilité des débits parmi les bassins étudiés. Mais cette variabilité des débits devra tout de même être mieux expliquée, avant d'espérer extrapoler les résultats obtenus à des bassins non jaugés notamment.
33

Payrastre, Olivier Renaud. "Faisabilité et utilité du recueil de données historiques pour l'étude des crues extrêmes de petits cours d'eau : étude du cas de quatre bassins versants affluents de l'Aude." Marne-la-vallée, ENPC, 2005. http://www.theses.fr/2005ENPC0033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Ouni, Marwa. "Problèmes inverses en mécanique des fluides résolus par des stratégies de jeux." Thesis, Université Côte d'Azur, 2021. http://theses.univ-cotedazur.fr/2021COAZ4021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s’intéresse à étudier la capacité de l’approche de la théorie des jeux à traiter certains problèmes inverses ‘mal posé’, gouvernés par les équations de Stokes ou quasi-Stokes. La première partie concerne la détection d’un ou plusieurs objets (Chapitre 2), et l’identification de sources ponctuelles dans un écoulement (Chapitre 3), en utilisant des données du type Cauchy qui seront ainsi fournies seulement sur une partie frontière de l’écoulement. Ce type de problème est mal posé au sens d’Hadamard du fait de l’absence de solution si les données ne sont pas compatibles mais surtout du fait de son extrême sensibilité aux données bruitées, dans le sens où une légère perturbation des données entraine une grande perturbation de la solution. Cette difficulté de stabilité fournit aux chercheurs un défi intéressant pour la mise au point de méthodes numériques permettant d’approcher de la solution du problème inverse original. L’approche développée ici est différente de celles existantes, elle a traité simultanément la question de la reconstruction des données manquantes avec celle de l’identification des inclusions ou de sources ponctuelles dans un fluide visqueux, incompressible et stationnaire. En considérant une méthode de type minimisation de critères, la solution est réinterprétée en termes d’équilibre de Nash entre les deux problèmes complétion/identification. Des nouveaux algorithmes originaux dédiés au calcul d’équilibre de Nash sont présenté et implémenté avec FreeFem ++. Une extension pour le problème d’identification de petits objets de l’approche proposée de jeu de Nash a été réalisé (Chapitre 4). La deuxième partie est consacrée à la résolution des problèmes inverses non linéaires dans le cadre des écoulements de fluide quasi-newtonien (Chapitre 5). La viscosité est supposée une fonction non linéaire, varie en fonction du tenseur des déformations. Un problème inverse non linéaire du type Cauchy est reformulé comme un problème du contrôle optimal, puis comme un jeu de Nash à deux joueurs. Deux algorithmes ont été utilisés et comparés afin de résoudre les problèmes aux limites non linéaires : un algorithme classique de point fixe et un nouveau schéma proposé ‘one-shots’. Enfin, on applique la théorie des jeux pour la résolution du problème de couplage de complétion des données etidentification des inclusions pour le modèle de quasi-Stokes
This thesis aims to study the ability of theoretic game approaches to deal with ill-posed problems. The first part of the thesis is dedicated to the Stokes system’s linear problem, with the goal of detecting unknown geometric inclusions or pointwise sources in a stationary viscous fluid, using a single compatible pair of Dirichlet and Neumann data, available only on a partially accessible part of the boundary. Inverse geometric-or-source identification for the Cauchy-Stokes problem is severely ill-posed (in the sense of Hadamard) for both the inclusions or sources and the missing data reconstructions, and designing stable and efficient algorithms is challenging. To solve the joint completion/detection problem, we reformulate it as a three players Nash game. The two first players aim at recovering the missing data (Dirichlet and Neumann conditions prescribed over the inaccessible boundary), while the third player seeks to identify the shape and locations of the inclusions (in Chapter 2) or determine the source term (in Chapter 3). We then introduce new algorithms dedicated to the Nash equilibria, which is expected to approximate the original coupled problems’ solutions. We present different numerical experiments to illustrate the efficiency and robustness of our 3- player Nash game strategy. The extension of this work to another situation, such as identifying small objects, has been carried out (in Chapter 4). The second purpose of this thesis is to extend those results to the case of quasi-Newtonian fluid flow whose viscosity is assumed to be a nonlinear function that varies upon the imposed rate of deformation. The considered problem then is a nonlinear Cauchy type because of the non-linearity of the viscosity function. Two different iterative procedures, control-type and Nash game algorithms, are considered to solve it. From a computational point of view, the non-linearity needs some particular algorithms. We propose a novel one-shot algorithm to solve the nonlinear state equations during a recovery process, representing a different idea to treat the nonlinear Cauchy problems. Some numerical experiments are provided to demonstrate our algorithm’s efficiency in the noise-free and noisy data cases. A comparison between the one-shot scheme and the fixed-point method was performed. Finally, we introduce an algorithm to jointly recover the missing boundary data and the location and shape of the inclusions for nonlinear Stokes models based on the Game-Theoretic approach
35

Nicol, Olivier. "Data-driven evaluation of contextual bandit algorithms and applications to dynamic recommendation." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10211/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse a été réalisé dans le contexte de la recommandation dynamique. La recommandation est l'action de fournir du contenu personnalisé à un utilisateur utilisant une application, dans le but d'améliorer son utilisation e.g. la recommandation d'un produit sur un site marchant ou d'un article sur un blog. La recommandation est considérée comme dynamique lorsque le contenu à recommander ou encore les goûts des utilisateurs évoluent rapidement e.g. la recommandation d'actualités. Beaucoup d'applications auxquelles nous nous intéressons génèrent d'énormes quantités de données grâce à leurs millions d'utilisateurs sur Internet. Néanmoins, l'utilisation de ces données pour évaluer une nouvelle technique de recommandation ou encore comparer deux algorithmes de recommandation est loin d'être triviale. C'est cette problématique que nous considérons ici. Certaines approches ont déjà été proposées. Néanmoins elles sont très peu étudiées autant théoriquement (biais non quantifié, borne de convergence assez large...) qu'empiriquement (expériences sur données privées). Dans ce travail nous commençons par combler de nombreuses lacunes de l'analyse théorique. Ensuite nous discutons les résultats très surprenants d'une expérience à très grande échelle : une compétition ouverte au public que nous avons organisée. Cette compétition nous a permis de mettre en évidence une source de biais considérable et constamment présente en pratique : l'accélération temporelle. La suite de ce travail s'attaque à ce problème. Nous montrons qu'une approche à base de bootstrap permet de réduire mais surtout de contrôler ce biais
The context of this thesis work is dynamic recommendation. Recommendation is the action, for an intelligent system, to supply a user of an application with personalized content so as to enhance what is refered to as "user experience" e.g. recommending a product on a merchant website or even an article on a blog. Recommendation is considered dynamic when the content to recommend or user tastes evolve rapidly e.g. news recommendation. Many applications that are of interest to us generates a tremendous amount of data through the millions of online users they have. Nevertheless, using this data to evaluate a new recommendation technique or even compare two dynamic recommendation algorithms is far from trivial. This is the problem we consider here. Some approaches have already been proposed. Nonetheless they were not studied very thoroughly both from a theoretical point of view (unquantified bias, loose convergence bounds...) and from an empirical one (experiments on private data only). In this work we start by filling many blanks within the theoretical analysis. Then we comment on the result of an experiment of unprecedented scale in this area: a public challenge we organized. This challenge along with a some complementary experiments revealed a unexpected source of a huge bias: time acceleration. The rest of this work tackles this issue. We show that a bootstrap-based approach allows to significantly reduce this bias and more importantly to control it
36

Megel, Cyrille. "Petits ARN non codants dérivant d’ARN de transfert et endoribonucléases impliquées dans leur biogenèse chez Arabidopsis thaliana." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAJ104/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi les petits ARN non codants, les fragments dérivant d’ARNt (tRF) ont été identifiés dans tous les embranchements de la vie. Cependant, très peu de donnée existe sur les tRF de plantes. Les populations de tRF issues de plusieurs banques de petits ARN (différents tissus, plantes soumises à des stress abiotiques, ou fractions immunoprécipitées avec la protéine ARGONAUTE1) ont été analysées. Les populations sont essentiellement constituées de tRF-5D ou des tRF-3T (clivage dans la boucle D ou T respectivement) et elles varient d’une banque à l’autre. Par une approche in silico suivie de tests de clivage in vitro, des RNases T2 d’A. thaliana (RNS) ont été identifiées comme étant capables de cliver les ARNt dans la région de l’anticodon, de la boucle D et de la boucle T. Lors de l’étude de l’expression des RNS, nous avons observé que deux d’entre elles sont fortement exprimées à un stade de maturation tardif des siliques. Ainsi, la population en tRF issue de stades de développement avancés des siliques a été analysée. Des expériences de carences en phosphate nous ont permis de démontrer l’implication d’une des RNS dans la genèse de tRF dans A. thaliana. Au final, nos données ouvrent de nouvelles perspectives quant à l’implication des RNS et des tRF comme des acteurs majeurs dans l’expression des gènes chez les plantes
Among the small ncRNAs, tRNA-derived RNA fragments (tRFs) were identified in all domains of life. However, only few data report on plants tRFs. Short tRF were retrieved from A. thaliana small RNA libraries (various tissues, plants submitted to abiotic stress or argonaute immunoprecipitated fractions). Mainly tRF-5D or tRF-3T (cleavage in the D or T region respectively) were found, and fluctuations in the tRF population were observed.Using in vitro approaches, A. thaliana RNase T2 endoribonucleases (RNS) were shown to cleave tRNAs in the anticodon region but also in the D or T region. Through a whole study of RNS expression, we show that two RNS are also strongly expressed in the siliques at a late stage of development. Thus, we analyzed the tRF population of this particular developmental stage. Upon phosphate starvation, we demonstrate also the implication of one RNS in the production of tRFs in planta. Altogether, our data open new perspectives for RNS and tRFs as major actors of gene expression inplants
37

Gomez, José Raul. "Un cadre d'évaluation systématique pour les outils d'intégration de systèmes d'information." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1642.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au fil des dernières années, le développement d'applications Internet et le développement rapide des technologies mobiles ont provoqué, dans les organisations publiques et privées, la mise en place d'un mécanisme capable d'intégrer ces nouveaux développements aux systèmes d'information existants. Ce mécanisme doit être en mesure d'intégrer différentes structures et des technologies hétérogènes par le partage des données. C'est pourquoi il est important de faire un choix éclairé lorsqu'il faut sélectionner l'outil approprié pour l'intégration de ces systèmes. Dans ce projet de recherche, on propose le développement d'un cadre d'évaluation systématique pour les outils d'intégration de systèmes d'information par l'approche par médiateur, en focalisant l'évaluation sur trois critères : le temps d'implémentation, la performance et la complexité d'implémentation. (1) Le critère du temps porte sur l'évaluation du temps que prend l'implémentation d'un outil depuis l'étude bibliographique jusqu'à l'implémentation dans un prototype qui implémente différentes structures de données. (2) Le critère de performance consiste en la vitesse avec laquelle l'outil peut traiter différents jeux de données. (3) Le critère de complexité correspond à l'évaluation de la complexité d'implémentation de l'outil de manière quantitative basée sur l'application de différentes métriques logicielles. Ce dernier critère permet, en ajoutant une partie quantitative, de renforcer le premier critère qui donne une évaluation plus qualitative de la complexité d'implémentation de l'outil. Les résultats obtenus avec l'application du cadre d'évaluation pour les outils d'intégration ont permis de proposer un système de médiation comme mécanisme d'intégration de systèmes hétérogènes capable de traiter différentes structures de données, de faire le stockage de ces données et de les partager entre les systèmes intégrés en privilégiant la facilité d'implémentation, la performance ou encore la maintenabilité.
38

Dari, Bekara Kheira. "Protection des données personnelles côté utilisateur dans le e-commerce." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’informatique et Internet en particulier favorisent grandement la collecte de données à l'insu de l'utilisateur, leur divulgation à des tiers et le croisement des données. La densité des activités humaines dans le monde numérique constitue donc un terrain fertile pour de potentielles atteintes à la vie privée des utilisateurs. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions centrées utilisateur, lui donnant davantage de contrôle sur ses données personnelles. Dans cette perspective, nous analysons le cadre légal français et européen pour en tirer des axes de protection. Nous spécifions ensuite les contraintes tirées de ces axes, en proposant de les introduire dans les modèles de politiques de sécurité existants. Ainsi, nous suggérons l’application d’un seul modèle pour le contrôle d’accès et la protection de la vie privée. Le modèle de contrôle d’accès doit être étendu par de nouvelles conditions et paramètres d’accès. Pour cela, nous définissons le langage XPACML (eXtensible Privacy aware Access Control Markup Language) conçu sur la base d’extensions apportées au modèle de contrôle d’accès XACML. Placés dans un contexte E-Commerce, nous avons défini un modèle sémantique permettant de représenter les contextes liés aux différentes transactions électroniques. Ainsi nous avons pu effectuer une génération dynamique des politiques XPACML en fonction du contexte en cours. A la quête d’une protection étendue des données personnelles, nous avons consacré la dernière partie de nos travaux aux négociations possibles qui peuvent être effectuées entre un utilisateur et un fournisseur de service. Ainsi nous avons proposé deux protocoles. Le premier porte sur la négociation des termes et conditions des politiques de protection des données, alors que le deuxième porte sur la négociation des données à dévoiler elles mêmes
Informatics and Internet in particular favor largely the collection of data without user permission, their disclosure to third parties and their cross-analysis. The density of the human activities in the digital world thus constitutes a fertile ground for potential invasions of privacy of the users. Our works examine first the legal context of privacy protection, as well as the diverse computing means intended for the protection of personal data. A need for user centered solutions emerges, giving him/her more control over his/her personal data. In this perspective, we analyze European and French privacy legislation to extract data protection axis. Then we specify the constraints related to these axes, and we introduce them in existing security policy models. Thus we suggest the application of one model for both access control and privacy protection. The access control model should be extended by new privacy related conditions and parameters. To do so, we define the language XPACML (eXtensible Privacy aware Access Control Markup Language) based on XACML and new privacy extensions. Placed in an E-commerce context, we define a semantic model allowing to represent various electronic transactions contexts, and leading to a dynamic generation of context- aware XPACML policies. Looking for a vast protection of the personal data, we dedicate the last part of our works to the possible negotiations which can be made between a user and a service provider. Two protocols are proposed. The first one permits the negotiation of the terms and the conditions of data protection policies, while the second permits the negotiation of the requested data themselves
39

Chebaicheb, Hasna. "Etude de la composition chimique des particules fines et des sources d'aérosol organique sur différents sites en France à partir de jeux de données pluriannuels à haute résolution temporelle." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Lille Douai, 2023. http://www.theses.fr/2023MTLD0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Considérant les impacts climatiques et sanitaires majeurs des particules fines, ce travail a étudié leur composition chimique sur 13 sites français de 2015 à 2021. L’aérosol organique (AO) prédomine, avec des augmentations en hiver (chauffage résidentiel), et en été (formation d’aérosols organiques secondaires). Le nitrate d’ammonium, polluant secondaire lui aussi issu des combustions et de l’agriculture, domine en particulier dans le nord lors des épisodes de pollution printaniers.Les sources principales de l’Ao sont liées principalement aux émissions du trafic et de la combustion de biomasse. D’autres sont spécifiques à certains sites (activités de cuisson, industrie, émissions des navires). Les facteurs oxygénés dominent l’AO, suggérant des processus de vieillissement et de formation secondaire. Ces résultats peuvent orienter les politiques visant à améliorer la qualité de l’air, contribuer à améliorer la précision des modèles et servir à de futures études épidémiologiques
Considering the major climatic and health impacts of fine particulate matter, this work studies their chemical composition at 13 French sites from 2015 to 2021. Organic aerosols (OA) predominate, with increases in winter (residential heating emissions) and summer (formation of secondary organic aerosols). Ammonium nitrate, also a secondary pollutant from combustion and agriculture, dominates during springtime pollution episodes, particularly in the north.The main sources of OA are traffic emissions and biomass combustion. Others are site-specific (cooking activities, industry, ship emissions). Oxygenated factors dominate OA, suggesting aging and secondary formation processes. These results can guide policies aimed at improving air quality, help improve the model accuracy and inform future epidemiological studies)
40

Royer, Kevin. "Vers un entrepôt de données et des processus : le cas de la mobilité électrique chez EDF." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le marché du véhicule électrique (VE) est aujourd’hui en plein essor et il s’agit d’un marché quireprésente un intérêt pour des industriels comme EDF. Pour réaliser ses objectifs (optimisation de laconsommation, tarification...) EDF doit d’abord extraire des données hétérogènes (issues des VE etdes bornes de recharge) puis les analyser. Pour cela nous nous sommes orientés vers un entrepôt dedonnées (ED) qui est ensuite exploité par les processus métiers (PM). Afin d’éviter le phénomèneGarbage In/Garbage Out, les données doivent être traitées. Nous avons choisi d’utiliser une ontologiepour réduire l’hétérogénéité des sources de données. La construction d’une ontologie étant lente, nousavons proposé une solution incrémentale à base briques ontologiques modulaires liées entre elles. Laconstruction de l’ED, basé sur l’ontologie, est alors incrémentale. Afin de charger des données dansl’ED, nous avons défini les processus ETL (Extract, Transform & Load) au niveau sémantique. Ensuitenous avons modélisé les PM répétitifs selon les spécifications BPMN (Business Process Modelisation& Notation) pour extraire les connaissances requises par EDF de l’ED. L’ED constitué possède lesdonnées et des PM, le tout dans un cadre sémantique. Nous avons implémenté cela sur la plateformeOntoDB développée au Laboratoire d’Informatique et d’Automatique pour les Systèmes de l’ISAEENSMA.Elle nous a permis de manipuler l’ontologie, les données et les PM d’une manière homogènegrâce au langage OntoQL. De plus, nous lui avons fourni la capacité d’exécuter automatiquement lesPM. Cela nous a permis de fournir à EDF une plate-forme adaptée à leurs besoins à base d’élémentsdéclaratifs
Nowadays, the electrical vehicles (EV) market is undergoing a rapid expansion and has become ofgreat importance for utility companies such as EDF. In order to fulfill its objectives (demand optimization,pricing, etc.), EDF has to extract and analyze heterogeneous data from EV and charging spots. Inorder to tackle this, we used data warehousing (DW) technology serving as a basis for business process(BP). To avoid the garbage in/garbage out phenomena, data had to be formatted and standardized.We have chosen to rely on an ontology in order to deal with data sources heterogeneity. Because theconstruction of an ontology can be a slow process, we proposed an modular and incremental constructionof the ontology based on bricks. We based our DW on the ontology which makes its construction alsoan incremental process. To upload data to this particular DW, we defined the ETL (Extract, Trasform& Load) process at the semantic level. We then designed recurrent BP with BPMN (Business ProcessModelization & Notation) specifications to extract EDF required knowledge. The assembled DWpossesses data and BP that are both described in a semantic context. We implemented our solutionon the OntoDB platform, developed at the ISAE-ENSMA Laboratory of Computer Science and AutomaticControl for Systems. The solution has allowed us to homogeneously manipulate the ontology, thedata and the BP through the OntoQL language. Furthermore, we added to the proposed platform thecapacity to automatically execute any BP described with BPMN. Ultimately, we were able to provideEDF with a tailor made platform based on declarative elements adapted to their needs
41

Gagne, Christophe. "Les interactions verbales en France et en Grande-Bretagne : étude comparative de quatre petits commerces français et britanniques." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO20051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse s’inscrit dans une perspective comparative et interculturelle. Sa mise en œuvre repose sur l’idée que c’est en observant ce qui se passe dans les interactions du quotidien que l’on peut mieux comprendre le rapport que les cultures entretiennent, et mettre au jour ce que les comportements observés dans chacune des cultures étudiées ont de spécifique. En s’appuyant sur l’analyse minutieuse et détaillée d’enregistrements effectués dans quatre sites commerciaux français et britanniques, l’étude tente de comprendre le comportement langagier des participants en le mettant en relation avec divers éléments du contexte (éléments relevant du micro-contexte : matériel discursif contigu aux énoncés étudiés ; du contexte situationnel : agencement du site, nombre de participants, finalité de l’interaction ; du macro-contexte : place occupée par les interactions de commerce dans les cultures en question, par les sites, valeurs culturelles d’arrière-plan). La finalité de cette étude (qui aborde les rituels d’entrée et de sortie d’interaction ; les remerciements ; la réalisation d’actes de langage directifs : questions, requêtes, offres ; les séquences conversationnelles) est d’obtenir une meilleure compréhension des profils communicatifs relatifs aux cultures française et britannique
This thesis, which is of a contrastive and intercultural nature, is informed by the idea that it is by observing the behaviour of interactants in everyday interactions that the relationship between cultures can best be approached, and the specificity of the forms of behaviour encountered explored. Through the careful and detailed analysis of recordings taken in four different shops (French and British), the study aims to understand the linguistic behaviour of the participants by linking it to various contextual elements (micro-contextual elements: discursive material that surrounds the utterances analysed; situational elements: site layout, number of participants, interaction’s finality; macro-contextual ones: status of service encounters and of the types of shops selected, cultural values that underpin explored behaviour). The purpose of the study (which analyses opening and closing rituals; thanking; the way directive speech acts such as questions, offers and requests are performed; conversational sequences) is to provide a better understanding of the communicative styles that can be associated with French and British cultures
42

Nisse, Nicolas. "Complexité algorithmique: entre structure et connaissance. Comment les jeux de poursuite peuvent apporter des solutions." Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998854.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce document pr esente les travaux que j'ai r ealis es depuis ma th ese de doctorat. Outre la pr esentation de mes contributions, j'ai essay e de pr esenter des survols des domaines dans lesquels mes travaux s'inscrivent et d'indiquer les principales questions qui s'y posent. Mes travaux visent a r epondre aux nouveaux challenges algorithmiques que posent la croissance des r eseaux de telecommunications actuels ainsi que l'augmentation des donnees et du trafi c qui y circulent. Un moyen de faire face a la taille de ces probl emes est de s'aider de la structure particuliere des r eseaux. Pour cela, je m'attache a d e nir de nouvelles caract erisations des propri et es structurelles des graphes pour les calculer et les utiliser effi cacement a des fins algorithmiques. Autant que possible, je propose des algorithmes distribu es qui ne reposent que sur une connaissance locale/partielle des r eseaux. En particulier, j' etudie les jeux de poursuite - traitant de la capture d'une entit e mobile par une equipe d'autres agents - qui off rent un point de vue int eressant sur de nombreuses propri et es de graphes et, notamment, des d ecompositions de graphes. L'approche de ces jeux d'un point de vue agents mobiles permet aussi l' etude de mod eles de calcul distribu e. Le chapitre 1 est d edi e a l' etude de plusieurs variantes des jeux de gendarmes et voleur. Le chapitre 2 traite des decompositions de graphes et de leur relation avec les problemes d'encerclement dans les graphes. Le chapitre 3 se concentre sur les probl emes d'encerclement dans des contextes a la fois centralis e et distribu e. Finalement, le chapitre 4 traite de probl emes de routage dans diff erents contextes, ainsi que de mod eles de calcul distribu e.
43

Dufourny, Sylvain. "Optimisation de décisions économiques concurrentielles dans un simulateur de gestion d’entreprise." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10092/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les technologies du numérique s’invitent de plus en plus dans l’enseignement. Les nouvelles pratiques pédagogiques révolutionnent également les standards de la formation. La « gamification » des cursus est, par exemple, devenue une tendance actuelle. Elle permet, par le jeu, d’exercer les apprenants différemment. Les simulations de gestion d’entreprise entrent dans ce cadre. Elles positionnent les stagiaires à la tête d’entreprises virtuelles et simulent un marché concurrentiel. Le déploiement de cette pratique se heurte néanmoins à des difficultés opérationnelles : taille du groupe, formation de l’animateur… C’est dans ce contexte que nous envisageons la mise en œuvre d’agents autonomes permettant d’accompagner ou de concurrencer les apprenants.Pour cela, nous proposons, tout d’abord, une modélisation performante d’une entreprise à base de programmes linéaires mixtes permettant l’optimisation des départements internes des entreprises (production, distribution, finance). Ensuite, nous introduisons une heuristique de recherche locale afin de générer des solutions performantes dans un environnement économique. Aussi, à la suite d’une phase d’extraction de connaissances, nous proposons la définition et la construction d’arbres d’anticipation qui permettent de prévoir les décisions concurrentielles des protagonistes engagés et ainsi de pouvoir estimer la qualité des solutions construites. Afin de valider les approches proposées, nous les avons comparées aux comportements réels de joueurs et avons évalué l’apport de l’exploitation de la connaissance. Enfin, nous avons proposé une généralisation de la méthode à d’autres simulateurs de gestion d’entreprise
Digital technologies are becoming increasingly popular in teaching and learning processes. New educational practices are also revolutionizing the standards of training. For example, the "gamification" of the curricula has become a current trend. It allows, through games, to exercise learners differently. Business management simulation, also known as business games, fall within this context. They place learners at the head of virtual companies and simulate a competitive market. The deployment of this practice nevertheless encounters some operational difficulties: size of the group, training of the teacher... It is in this context that we envisage the implementation of autonomous agents to accompany the learners or the competitors.To do this, firstly, we propose a modeling of a company, based on mixed linear programs allowing optimization of the internal departments of the companies (production, delivery, finance). For the second step, we will introduce a local heuristic search, ensuring a generation of efficient solutions in a given economic and competitive environment. Thirdly, following a knowledge extraction phase, we propose the definition and construction of anticipation trees that predict the competitive decisions of the engaged protagonists and thus to be able to estimate the quality of the solutions built. In order to validate the proposed approaches, we compared them with the real behaviors of players and evaluated the contribution of the exploitation of the knowledge. Finally, we proposed a framework allowing a generalization of the method to other business games
44

Fargevieille, Amélie. "Sélection sexuelle et évolution des ornements femelles : une étude de la coloration du plumage femelle utilisant des analyses comparatives et des jeux de données à long terme issus de populations de mésange bleue (Cyanistes caeruleus)." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT127/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les traits ornementaux sont classiquement vus comme un attribut des mâles chez les espèces animales. Cette vision est liée à un rôle considéré historiquement comme très asymétrique des sexes, avec les mâles qui entrent en compétition (sélection intra-sexuelle) pour attirer les femelles qui choisissent (sélection intersexuelle) le meilleur partenaire. Cette idée fut développée en liaison avec l’asymétrie dans la production des gamètes mâles et femelles. Les femelles, qui produisent un nombre réduit de gamètes de grosse taille, maximisent la chance de survie de leurs descendants en investissant plus dans les soins parentaux ; elles deviennent ainsi le sexe limitant et choisissent les mâles qui entrent donc en compétition pour avoir accès à la reproduction. Tout trait ornemental qui augmente le succès d’appariement sera donc avantageux pour les mâles conduisant à des traits sexuels secondaires plus développés chez ce sexe. Si les traits ornementaux sont fréquents chez les mâles, il existe également de nombreux exemples chez les femelles, notamment chez les espèces socialement monogames à soins biparentaux. C’est seulement récemment que les biologistes évolutifs ont cherché à tester les processus expliquant l’apparition et le maintien des ornements femelles. Si le rôle de la corrélation génétique dans cette évolution est incontestable, et que la sélection sociale est aussi majeure, plusieurs études empiriques ont montré un choix mâle pour les ornements femelles et des modèles théoriques ont déterminé les paramètres conduisant à l’évolution du choix mâle. Par ailleurs, les approches phylogénétiques retraçant l’évolution des ornements ont montré une forte labilité des traits femelles, avec des apparitions et disparitions de traits ornementaux plus fréquentes chez les femelles que chez les mâles. Afin de mieux comprendre la relation entre la sélection sexuelle et l’évolution des ornements femelles, cette thèse s’est construite sur ces résultats précédemment acquis et a mené plusieurs approches pour mieux préciser le rôle de la sélection sexuelle dans l’évolution et le maintien de la coloration chez les femelles. Une approche comparative à l’échelle des passereaux a testé les paramètres déterminés comme conduisant à l’évolution du choix mâle par des modèles théoriques. En accord avec les modèles théoriques, les résultats mettent en avant l’importance de l’investissement du mâle dans les soins parentaux dans l’évolution de la coloration du plumage femelle. Ils montrent également comment l’investissement initial des femelles dans la reproduction limite l’évolution de la coloration femelle. Un autre axe de la thèse s’est focalisé sur la coloration chez une espèce monogame, la Mésange bleue Cyanistes caeruleus, en utilisant un vaste jeu de données à long terme avec10 ans de donnés dans quatre populations pour tester notamment(i) la force de la corrélation génétique, (ii) les liens entre indices de succès de reproduction et coloration et (iii) l’existence d’un appariement par homogamie chez cette espèce. Si les résultats principaux montrent une forte corrélation génétique et soulignent une très forte variation spatiotemporelle, l’application d’outils méta-analytiques a permis de déceler une relation entre les colorations des femelles et les indices de succès de reproduction ainsi qu’un patron faible mais positif d’appariement par homogamie pour les deux patchs étudiés (couronne et bavette). Les deux volets de la thèse représentent de nouveaux apports en faveur de l’évolution des ornements femelles. Ils soulignent la complexité associée à leur évolution et l’importance de prendre en compte la variation spatiotemporelle pour une compréhension étendue et une possibilité de généralisation
Ornamental traits are classically associated with males in animal species. The asymmetrical view is related to sex roles, in which males are competing (intra-sexual selection) to attract females which chose the best mate (intersexual selection). This idea was developed with the concept of anisogamy, the asymmetry in the production of male and female gametes. Females producing few but large gametes maximize their offspring survival rate by investing more in parental care; they become the limiting sex and chose males which are thus competing for access to reproduction. Then, any ornamental trait increasing pairing success would become advantageous for males, leading to more developed secondary sexual traits in this sex. If ornamental traits are more frequent in males, there are also many examples with females, especially in socially monogamous species with biparental care. Evolutionary biologists have only started recently to test processes explaining the outbreak and maintenance of female ornaments. Genetic correlation is an unquestionable process involved in this evolution, and social selection is also a major process. Several empirical studies have also related male mate choice to female ornaments and theoretical models have defined key parameters driving the evolution of male mate choice. Furthermore, phylogenetical studies retracing the evolution of ornaments have showed a high lability in female traits, with more frequent gains and losses of ornamental traits in females compared to males. In order to link sexual selection to the evolution of female ornaments, this thesis was based on these previous achievements to develop different approaches to better understand the role of sexual selection in the evolution and maintenance of female colouration. Comparative methods in songbirds tested the key parameters defined by theoretical models as driving the evolution of male mate choice. In line with theoretical models, results highlight the importance of male investment in parental care in the evolution of female plumage colouration. They also show how female initial investment in reproduction limits this evolution. Another thesis axis focused on colouration in a monogamous species, the Blue tit Cyanistes caeruleus, using a large dataset across 10 years in four populations and tested in particular (i) the strength of genetic correlation, (ii) relations between proxies of reproductive success and colouration and (iii) the existence of assortative mating in this species. The main results highlight a strong genetic correlation and a wide spatiotemporal variation and the use of meta-analyses revealed correlation between female colouration and proxies of reproductive success as well as a weak but positive pattern of assortative mating on the two measured patches (crown and chest). Both sides of the thesis represent new insights in favour of the evolution of female ornaments. They also highlight the complexity associated with their evolution and the importance of considering spatiotemporal variation for extensive understanding and generalisation
45

Pavaux, Alice. "Inductive, Functional and Non-Linear Types in Ludics." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD092.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à une exploration des types de la ludique. S’inscrivant dans un contexte marqué par la correspondance de Curry–Howard, la ludique est un cadre permettant d’étudier l’aspect dynamique de la logique et de la programmation. Les objets de base, appelés desseins, sont des preuves infinitaires non-typées qui peuvent également être vues comme des stratégies sous l’angle de la sémantique des jeux, et un type ou comportement est un ensemble de desseins se conduisant de la même manière du point de vue de l’interaction. On s’intéresse aux propriétés interactives des comportements. Notre attention se porte en particulier sur les comportements représentant les types de données et de fonctions, et sur les comportements non-linéaires qui permettent la duplication d’objets. Un nouveau résultat de complétude interne pour les unions infinies dévoile la structure des types de données inductifs. Grâce à une analyse des chemins visitables,c’est-à-dire des possibles traces d’exécution, on prouve que les comportements inductifs et fonctionnels sont réguliers, ouvrant la voie pour une caractérisation de MALL en ludique. On montre également qu’un comportement fonctionnel est pur, une propriété garantissant la sûreté du typage, si et seulement si ce n’est pas un type de fonctions prenant des fonctions en argument. Enfin, on pose les bases d’une étude précise de la non-linéarité en ludique en retrouvant une forme de complétude interne et en discutant des chemins visitables
This thesis investigates the types of ludics. Within the context of the Curry–Howard correspondence,l udics is a framework in which the dynamic aspects of both logic and programming can be studied. The basic objects, called designs, are untyped infinitary proofs that can also beseen as strategies from the perspective of game semantics, and a type or behaviour is a set of designs well-behaved with respect to interaction. We are interested in observing the interactive properties of behaviours. Our attention is particularly focused on behaviours representing the types of data and functions, and on non-linear behaviours which allow the duplication of objects. A new internal completeness result for infinite unions unveils the structure of inductive data types. Thanks to an analysis of the visitable paths, i.e., the possible execution traces, we prove that inductive and functional behaviours are regular, paving the way for a characterisation of MALL in ludics. We also show that a functional behaviour is pure, a property ensuring the safety of typing, if and only if it is not a type of functions taking functions as argument. Finally,we set the bases for a precise study of non-linearity in ludics by recovering a form of internal completeness and discussing the visitable paths
46

Mathonat, Romain. "Rule discovery in labeled sequential data : Application to game analytics." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Exploiter des jeux de données labelisés est très utile, non seulement pour entrainer des modèles et mettre en place des procédures d'analyses prédictives, mais aussi pour améliorer la compréhension d'un domaine. La découverte de sous-groupes a été l'objet de recherches depuis deux décennies. Elle consiste en la découverte de règles couvrants des ensembles d'objets ayant des propriétés intéressantes, qui caractérisent une classe cible donnée. Bien que de nombreux algorithmes de découverte de sous-groupes aient été proposés à la fois dans le cas des données transactionnelles et numériques, la découverte de règles dans des données séquentielles labelisées a été bien moins étudiée. Dans ce contexte, les stratégies d'exploration exhaustives ne sont pas applicables à des cas d'application rééls, nous devons donc nous concentrer sur des approches heuristiques. Dans cette thèse, nous proposons d'appliquer des modèles de bandit manchot ainsi que la recherche arborescente de Monte Carlo à l'exploration de l'espace de recherche des règles possibles, en utilisant un compromis exploration-exploitation, sur différents types de données tels que les sequences d'ensembles d'éléments, ou les séries temporelles. Pour un budget temps donné, ces approches trouvent un ensemble des top-k règles decouvertes, vis-à-vis de la mesure de qualité choisie. De plus, elles ne nécessitent qu'une configuration légère, et sont indépendantes de la mesure de qualité utilisée. A notre connaissance, il s'agit de la première application de la recherche arborescente de Monte Carlo au cas de la fouille de données séquentielles labelisées. Nous avons conduit des études appronfondies sur différents jeux de données pour illustrer leurs plus-values, et discuté leur résultats quantitatifs et qualitatifs. Afin de valider le bon fonctionnement d'un de nos algorithmes, nous proposons un cas d'utilisation d'analyse de jeux vidéos, plus précisémment de matchs de Rocket League. La decouverte de règles intéressantes dans les séquences d'actions effectuées par les joueurs et leur exploitation dans un modèle de classification supervisée montre l'efficacité et la pertinence de notre approche dans le contexte difficile et réaliste des données séquentielles de hautes dimensions. Elle permet la découverte automatique de techniques de jeu, et peut être utilisée afin de créer de nouveaux modes de jeu, d'améliorer le système de classement, d'assister les commentateurs de "e-sport", ou de mieux analyser l'équipe adverse en amont, par exemple
It is extremely useful to exploit labeled datasets not only to learn models and perform predictive analytics but also to improve our understanding of a domain and its available targeted classes. The subgroup discovery task has been considered for more than two decades. It concerns the discovery of rules covering sets of objects having interesting properties, e.g., they characterize a given target class. Though many subgroup discovery algorithms have been proposed for both transactional and numerical data, discovering rules within labeled sequential data has been much less studied. In that context, exhaustive exploration strategies can not be used for real-life applications and we have to look for heuristic approaches. In this thesis, we propose to apply bandit models and Monte Carlo Tree Search to explore the search space of possible rules using an exploration-exploitation trade-off, on different data types such as sequences of itemset or time series. For a given budget, they find a collection of top-k best rules in the search space w.r.t chosen quality measure. They require a light configuration and are independent from the quality measure used for pattern scoring. To the best of our knowledge, this is the first time that the Monte Carlo Tree Search framework has been exploited in a sequential data mining setting. We have conducted thorough and comprehensive evaluations of our algorithms on several datasets to illustrate their added-value, and we discuss their qualitative and quantitative results. To assess the added-value of one or our algorithms, we propose a use case of game analytics, more precisely Rocket League match analysis. Discovering interesting rules in sequences of actions performed by players and using them in a supervised classification model shows the efficiency and the relevance of our approach in the difficult and realistic context of high dimensional data. It supports the automatic discovery of skills and it can be used to create new game modes, to improve the ranking system, to help e-sport commentators, or to better analyse opponent teams, for example
47

Chakraborty, Kaushik. "Cryptography with spacetime constraints." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse,nous étudions comment exploiter des contraintes spatio-temporelles,notamment le principe d'impossibilité de transmission supraluminique,dans le but de créer des primitives cryptographiques sûres,par exemple la vérification de position ou la "mise en gage de bit''(bit commitment). D'après le principe d'impossibilité de transmission supraluminique,aucun vecteur physique d'information ne peut voyager plus vite que la vitesse de la lumière. Ce principe entraîne une contrainte sur le temps de communication entre deux points éloignés. Ce délai dans le transfert d'information peut être utilisé comme une contrainte temporelle interdisant la communication. En cryptographie multi-agents,il est connu que l'hypothèse de non-communication entre les agents permet de réaliser de manière sécurisée de nombreuses primitives comme la "mise en gage de bit'' et l'un des buts de cette thèse est de comprendre à quel point les contraintes spatio-temporelles peuvent être exploitèes pour simuler des scénarios de non-communication. Dans la première partie de cette thèse nous étudions comment utiliser une contrainte de non-communication pour essayer de vérifier la position d'une personne.Dans la dernière partie,nous nous penchons sur deux exemples de protocoles de ``mise en gage de bit'' relativistes afin d'en étudier la sécurité contre des adversaires classiques. Pour conclure cette thèse,nous mentionnons quelques problèmes ouverts intéréssants. Ces problèmes ouverts peuvent être très utiles pour comprendre le rôle de contraintes spatio-temporelles,par exemple de l'impossibilité de transmission supraluminique,dans la conception de primitives cryptographiques parfaitement sûres
In this thesis we have studied how to exploit relativistic constraints such as the non-superluminal signalling principle to design secure cryptographic primitives like position-verification and bit commitment. According to non-superluminal signalling principle, no physical carrier of information can travel faster than the speed of light. This put a constraint on the communication time between two distant stations. One can consider this delay in information transfer as a temporal non-communication constraint. Cryptographic primitives like bit-commitment, oblivious transfer can be implemented with perfect secrecy under such non-communication assumption between the agents. The first part of this thesis has studied how non-signalling constraints can be used for secure position verification. Here, we have discussed about a strategy which can attack any position verification scheme. In the next part of this thesis we have discussed about the nonlocal games, relevant for studying relativistic bit commitment protocols. We have established an upper bound on the classical value of such family of games. The last part of this thesis discusses about two relativistic bit commitment protocols and their security against classical adversaries. We conclude this thesis by giving a brief summary of the content of each chapter and mentioning interesting open problems. These open problems can be very useful for better understanding of the role of spacetime constraints such as non-superluminal signalling in designing perfectly secure cryptographic primitives
48

Mansuy, Mathieu. "Aide au tolérancement tridimensionnel : modèle des domaines." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00734713.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à la demande de plus en plus exigeante en terme de qualité et de coût de fabrication des produits manufacturés, la qualification et quantification optimal des défauts acceptables est primordial. Le tolérancement est le moyen de communication permettant de définir les variations géométriques autorisé entre les différents corps de métier intervenant au cours du cycle de fabrication du produit. Un tolérancement optimal est le juste compromis entre coût de fabrication et qualité du produit final. Le tolérancement repose sur 3 problématiques majeures: la spécification (normalisation d'un langage complet et univoque), la synthèse et l'analyse de tolérances. Nous proposons dans ce document de nouvelles méthodes d'analyse et de synthèse du tolérancement tridimensionnel. Ces méthodes se basent sur une modélisation de la géométrie à l'aide de l'outil domaine jeux et écarts développé au laboratoire. La première étape consiste à déterminer les différentes topologies composant un mécanisme tridimensionnel. Pour chacune de ces topologies est définie une méthode de résolution des problématiques de tolérancement. Au pire des cas, les conditions de respect des exigences fonctionnelles se traduisent par des conditions d'existence et d'inclusions sur les domaines. Ces équations de domaines peuvent ensuite être traduites sous forme de système d'inéquations scalaires. L'analyse statistique s'appuie sur des tirages de type Monte-Carlo. Les variables aléatoires sont les composantes de petits déplacements des torseur écarts défini à l'intérieur de leur zone de tolérance (modélisée par un domaine écarts) et les dimensions géométriques fixant l'étendue des jeux (taille du domaine jeux associé). A l'issue des simulations statistiques, il est possible d'estimer le risque de non-qualité et les jeux résiduels en fonction du tolérancement défini. Le développement d'une nouvelle représentation des domaines jeux et écarts plus adapté, permet de simplifier les calculs relatifs aux problématiques de tolérancement. Le traitement local de chaque topologie élémentaire de mécanisme permet d'effectuer le traitement global des mécanismes tridimensionnels complexes avec prise en compte des jeux.
49

Chakraborty, Kaushik. "Cryptography with spacetime constraints." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066194/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse,nous étudions comment exploiter des contraintes spatio-temporelles,notamment le principe d'impossibilité de transmission supraluminique,dans le but de créer des primitives cryptographiques sûres,par exemple la vérification de position ou la "mise en gage de bit''(bit commitment). D'après le principe d'impossibilité de transmission supraluminique,aucun vecteur physique d'information ne peut voyager plus vite que la vitesse de la lumière. Ce principe entraîne une contrainte sur le temps de communication entre deux points éloignés. Ce délai dans le transfert d'information peut être utilisé comme une contrainte temporelle interdisant la communication. En cryptographie multi-agents,il est connu que l'hypothèse de non-communication entre les agents permet de réaliser de manière sécurisée de nombreuses primitives comme la "mise en gage de bit'' et l'un des buts de cette thèse est de comprendre à quel point les contraintes spatio-temporelles peuvent être exploitèes pour simuler des scénarios de non-communication. Dans la première partie de cette thèse nous étudions comment utiliser une contrainte de non-communication pour essayer de vérifier la position d'une personne.Dans la dernière partie,nous nous penchons sur deux exemples de protocoles de ``mise en gage de bit'' relativistes afin d'en étudier la sécurité contre des adversaires classiques. Pour conclure cette thèse,nous mentionnons quelques problèmes ouverts intéréssants. Ces problèmes ouverts peuvent être très utiles pour comprendre le rôle de contraintes spatio-temporelles,par exemple de l'impossibilité de transmission supraluminique,dans la conception de primitives cryptographiques parfaitement sûres
In this thesis we have studied how to exploit relativistic constraints such as the non-superluminal signalling principle to design secure cryptographic primitives like position-verification and bit commitment. According to non-superluminal signalling principle, no physical carrier of information can travel faster than the speed of light. This put a constraint on the communication time between two distant stations. One can consider this delay in information transfer as a temporal non-communication constraint. Cryptographic primitives like bit-commitment, oblivious transfer can be implemented with perfect secrecy under such non-communication assumption between the agents. The first part of this thesis has studied how non-signalling constraints can be used for secure position verification. Here, we have discussed about a strategy which can attack any position verification scheme. In the next part of this thesis we have discussed about the nonlocal games, relevant for studying relativistic bit commitment protocols. We have established an upper bound on the classical value of such family of games. The last part of this thesis discusses about two relativistic bit commitment protocols and their security against classical adversaries. We conclude this thesis by giving a brief summary of the content of each chapter and mentioning interesting open problems. These open problems can be very useful for better understanding of the role of spacetime constraints such as non-superluminal signalling in designing perfectly secure cryptographic primitives
50

Schertzer, Jérémie. "Exploiting modern GPUs architecture for real-time rendering of massive line sets." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous considérons des grands ensembles de lignes générés à partir de tractogrammes cérébraux. Ils décrivent des connexions neuronales représentées par des millions de fibres poly-lignes, comptant des milliards de segments. Grâce au mesh shader pipeline, nous construisons un moteur de rendu de tractogrammes aux performances surpassant l'état de l'art de deux ordres de grandeur.Nos performances proviennent des fiblets : une représentation compressée de blocs de segments. En combinant cohérence temporelle et dilatation morphologique du z-buffer, nous définissons un test d'occlusion rapide pour l'élimination de fiblets. Grâce à notre algorithme de décompression parallèle fortement optimisé, les fiblets survivants sont efficacement synthétisés en poly-lignes. Nous montrons également comment notre pipeline de fiblets accélère des fonctionnalités d'interactions avancées avec les tractogrammes.Pour le cas général du rendu des lignes, nous proposons la marche morphologique : une technique en espace écran qui rend des tubes d'épaisseur modifiable à partir des lignes fines rastérisées du G-buffer. En approximant un tube comme l'union de sphères densément réparties le long de ses axes, chaque sphère occupant chaque pixel est récupérée au moyen d'un filtre multi-passes de propagation de voisinage. Accéléré par le compute pipeline, nous atteignons des performances temps réel pour le rendu de lignes épaisses.Pour conclure notre travail, nous implémentons un prototype de réalité virtuelle combinant fiblets et marche morphologique. Il permet pour la première fois la visualisation immersive de grands tractogrammes constitués de fibres épaisses, ouvrant ainsi la voie à des perspectives diverses
In this thesis, we consider massive line sets generated from brain tractograms. They describe neural connections that are represented with millions of poly-line fibers, summing up to billions of segments. Thanks to the two-staged mesh shader pipeline, we build a tractogram renderer surpassing state-of-the-art performances by two orders of magnitude.Our performances come from fiblets: a compressed representation of segment blocks. By combining temporal coherence and morphological dilation on the z-buffer, we define a fast occlusion culling test for fiblets. Thanks to our heavily-optimized parallel decompression algorithm, surviving fiblets are swiftly synthesized to poly-lines. We also showcase how our fiblet pipeline speeds-up advanced tractogram interaction features.For the general case of line rendering, we propose morphological marching: a screen-space technique rendering custom-width tubes from the thin rasterized lines of the G-buffer. By approximating a tube as the union of spheres densely distributed along its axes, each sphere shading each pixel is retrieved relying on a multi-pass neighborhood propagation filter. Accelerated by the compute pipeline, we reach real-time performances for the rendering of depth-dependant wide lines.To conclude our work, we implement a virtual reality prototype combining fiblets and morphological marching. It makes possible for the first time the immersive visualization of huge tractograms with fast shading of thick fibers, thus paving the way for diverse perspectives

До бібліографії