Siga este link para ver outros tipos de publicações sobre o tema: Prédiction de la qualité des odeurs.

Teses / dissertações sobre o tema "Prédiction de la qualité des odeurs"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Prédiction de la qualité des odeurs".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Hladiš, Matej. "Réseaux de neurones en graphes et modèle de langage des protéines pour révéler le code combinatoire de l'olfaction". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5024.

Texto completo da fonte
Resumo:
Les mammifères identifient et interprètent une myriade de stimuli olfactifs par un mécanisme de codage complexe reposant sur la reconnaissance des molécules odorantes par des centaines de récepteurs olfactifs (RO). Ces interactions génèrent des combinaisons uniques de récepteurs activés, appelées code combinatoire, que le cerveau humain interprète comme la sensation que nous appelons l'odeur. Jusqu'à présent, le grand nombre de combinaisons possibles entre les récepteurs et les molécules a empêché une étude expérimentale à grande échelle de ce code et de son lien avec la perception des odeurs. La révélation de ce code est donc cruciale pour répondre à la question à long terme de savoir comment nous percevons notre environnement chimique complexe. Les RO appartiennent à la classe A des récepteurs couplés aux protéines G (RCPG) et constituent la plus grande famille multigénique connue. Pour étudier de façon systématique le codage olfactif, nous avons développé M2OR, une base de données exhaustive compilant les 25 dernières années d'essais biologiques sur les RO. À l'aide de cet ensemble de données, un modèle d'apprentissage profond sur mesure a été conçu et entraîné. Il combine l'intégration de jetons [CLS] d'un modèle de langage des protéines avec des réseaux de neurones en graphes et un mécanisme d'attention multi-têtes. Ce modèle prédit l'activation des RO par les odorants et révèle le code combinatoire résultant pour toute molécule odorante. Cette approche est affinée en développant un nouveau modèle capable de prédire l'activité d'un odorant à une concentration spécifique, permettant alors d'estimer la valeur d'EC50 de n'importe quelle paire OR-odorant. Enfin, les codes combinatoires dérivés des deux modèles sont utilisés pour prédire la perception olfactive des molécules. En incorporant des biais inductifs inspirés par la théorie du codage olfactif, un modèle d'apprentissage automatique basé sur ces codes est plus performant que l'état de l'art actuel en matière de prédiction d'odeurs. À notre connaissance, il s'agit de l'application la plus aboutie liant le code combinatoire à la prédiction de l'odeur d'une molécule. Dans l'ensemble, ce travail établit un lien entre les interactions complexes molécule odorante-récepteur et la perception humaine
Mammals identify and interpret a myriad of olfactory stimuli using a complex coding mechanism involving interactions between odorant molecules and hundreds of olfactory receptors (ORs). These interactions generate unique combinations of activated receptors, called the combinatorial code, which the human brain interprets as the sensation we call smell. Until now, the vast number of possible receptor-molecule combinations have prevented a large-scale experimental study of this code and its link to odor perception. Therefore, revealing this code is crucial to answering the long-term question of how we perceive our intricate chemical environment. ORs belong to the class A of G protein-coupled receptors (GPCRs) and constitute the largest known multigene family. To systematically study olfactory coding, we develop M2OR, a comprehensive database compiling the last 25 years of OR bioassays. Using this dataset, a tailored deep learning model is designed and trained. It combines the [CLS] token embedding from a protein language model with graph neural networks and multi-head attention. This model predicts the activation of ORs by odorants and reveals the resulting combinatorial code for any odorous molecule. This approach is refined by developing a novel model capable of predicting the activity of an odorant at a specific concentration, subsequently allowing the estimation of the EC50 value for any OR-odorant pair. Finally, the combinatorial codes derived from both models are used to predict the odor perception of molecules. By incorporating inductive biases inspired by olfactory coding theory, a machine learning model based on these codes outperforms the current state-of-the-art in smell prediction. To the best of our knowledge, this is the most comprehensive and successful application of combinatorial coding to odor quality prediction. Overall, this work provides a link between the complex molecule-receptor interactions and human perception
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Teetaert, Véronique. "Etude de matériaux adsorbants pour le prélèvement de composés volatils odorants : Application au prélevement d'un effluent industriel". Pau, 1999. http://www.theses.fr/1999PAUU3025.

Texto completo da fonte
Resumo:
L'objectif de ce travail est l'étude de l'adsorption de composés volatils à caractère odorant sur matériaux absorbants en vue de leur analyse physico-chimique. L'analyse des composés odorants grâce à des outils analytiques performants tels la Chromatographie en phase gazeuse couplée à la Spectrométrie de Masse, nécessitent néanmoins souvent une étape préconcentration des gaz pour atteindre leurs seuils de détection. Une technique facile à mettre en œuvre est l'adsorption sur cartouches remplies d'adsorbants, la récupération de l'échantillon s'effectuant généralement par voie thermique. Dans ce contexte, le choix du bon adsorbant possédant des capacités d'adsorption importantes et une certaine sélectivité vis-à-vis des molécules odorantes n'est pas aisée. Ce travail a permis de tester certains adsorbants communément utilisés à savoir le Carboviese SIII, le Carboxen 564, le arboxen 569, l'HayeSepQ et enfin le Tenax TA. L'adsorbant exclusivement microporeux se révèle être le plus efficace pour l'adsorption des molécules odorantes modèles choisis dans les trois familles odorantes (oxygénés, azotés et soufrés). Une étude sur des combinaisons d'adsorbants n'a montré aucune amélioration de l'adsoption de ces mêmes molécules même dans le cas d'un mélange complexe sauf pour le 1-propanethiol. Enfin, une étude sur un effluent issu de l'industrie de pâte à papier a montré l'importance de l'effet de matrice d'un tel effluent. Il faut s'affranchir de cette matrice, majoritairement constituée de composés terpéniques, pour exploiter les capacités des adsorbants. Tout d'abord le Carboxen 564 semble montrer les caractéristiques les plus intéressantes du fait de l'aptitude de ce dernier à piéger tant les composés lourds que légers. D'autre part, cette fois, les lélanges d'adsorbants de type HayeSepQ-Carbosieve SIII ou HayeSepQ-Carboxen 564 semblent être intéressants pour le prélèvement de cet effluent
The objective of this work is the study of the adsoption of volatile compounds in odorous matter on adsorbent materials before their physicochemical analysis. The analysis of the odorous compounds thanks to powerful analytical tools such as Gas chromatography coupled with Mass Spectrometry, often require a concentration stage of gases to reach the thresholds of detection. A technique, easy to omplement, is adsorption on cartridges filled with adsorbents, the recovery of th sample being generally carried out by a thermal way. In this context, the choice of the adsorbent having significant capacities of adsorption and a certain selectivity with respect to the odorous molecules is not easy. The aim of the work was to test adsorbents commonly used for instance Carbosieve SIII, Carboxen 564, Carboxen 569, HayeSepQ and finally Tenax TA. The exclusively microporous adsorbent proves to be most effective for the adsorption of the model odorous molecules selected in the three odorous families (oxygenated, nitrogenated and sulphur). A study on combinations of adsorbents did not show any improvement of the adsoption of these same molecules even in the case of a complex mixtures except for the 1-propanethiol. Lastly, a study on an effluent resulting from the paper pulp industry showed the importance of the matrix. It is necessary to be freed from this matrix, mainly made up of terpenic compounds, to exploit the capacities of the adsorbents. First of all Carboxen 564 seems to show the most interesting characteristics because of its aptitude to trap as well heavy compounds then light compounds. In addition, this time, the mixtures of adsorbents such as HayeSepQ-Carbosieve SIII or HayeSepQ-Carboxen 564 seem to be interesting for trapping this complex effluent
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Medjkoune, Massissilia. "Vers une approche non orientée pour l'évaluation de la qualité des odeurs". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS010/document.

Texto completo da fonte
Resumo:
Caractériser la qualité d’une odeur est une tâche complexe qui consiste à identifier un ensemble de descripteurs qui synthétise au mieux la sensation olfactive au cours de séances d’analyse sensorielle. Généralement, cette caractérisation est une liste de descripteurs extraite d’un vocabulaire imposé par les industriels d’un domaine pour leurs analyses sensorielles. Ces analyses représentent un coût significatif pour les industriels chaque année. En effet, ces approches dites orientées reposent sur l’apprentissage de vocabulaires, limitent singulièrement les descripteurs pour un public non initié et nécessitent de couteuses phases d’apprentissage. Si cette caractérisation devait être confiée à des évaluateurs naïfs, le nombre de participants pourrait être significativement augmenté tout en réduisant le cout des analyses sensorielles. Malheureusement, chaque description libre n’est alors plus associée à un ensemble de descripteurs non ambigus, mais à un simple sac de mots en langage naturel (LN). Deux problématiques sont alors rattachées à la caractérisation d’odeurs. La première consiste à transformer des descriptions en LN en descripteurs structurés ; la seconde se donne pour objet de résumer un ensemble de descriptions formelles proposées par un panel d’évaluateurs en une synthèse unique et cohérente à des fins industrielles. Ainsi, la première partie de notre travail se focalise sur la définition et l’évaluation de modèles qui peuvent être utilisés pour résumer un ensemble de mots en un ensemble de descripteurs désambiguïsés. Parmi les différentes stratégies envisagées dans cette contribution, nous proposons de comparer des approches hybrides exploitant à la fois des bases de connaissances et des plongements lexicaux définis à partir de grands corpus de textes. Nos résultats illustrent le bénéfice substantiel à utiliser conjointement représentation symbolique et plongement lexical. Nous définissons ensuite de manière formelle le processus de synthèse d’un ensemble de concepts et nous proposons un modèle qui s’apparente à une forme d’intelligence humaine pour évaluer les résumés alternatifs au regard d’un objectif de synthèse donné. L’approche non orientée que nous proposons dans ce manuscrit apparait ainsi comme l’automatisation cognitive des tâches confiées aux opérateurs des séances d’analyse sensorielle. Elle ouvre des perspectives intéressantes pour développer des analyses sensorielles à grande échelle sur de grands panels d’évaluateurs lorsque l’on essaie notamment de caractériser les nuisances olfactives autour d’un site industriel
Characterizing the quality of smells is a complex process that consists in identifying a set of descriptors best summarizing the olfactory sensation. Generally, this characterization results in a limited set of descriptors provided by sensorial analysis experts. These sensorial analysis sessions are however very costly for industrials. Indeed, such oriented approaches based on vocabulary learning limit, in a restrictive manner, the possible descriptors available for any uninitiated public, and therefore require a costly vocabulary-learning phase. If we could entrust this characterization to neophytes, the number of participants of a sensorial analysis session would be significantly enlarged while reducing costs. However, in that setting, each individual description is not related to a set of non-ambiguous descriptors anymore, but to a bag of terms expressed in natural language (NL). Two issues are then related to smell characterization implementing this approach. The first one is how to translate such NL descriptions into structured descriptors; the second one being how to summarize a set of individual characterizations into a consistent and synthetic unique characterization meaningful for professional purposes. Hence, this work focuses first on the definition and evaluation of models that can be used to summarize a set of terms into unambiguous entity identifiers selected from a given ontology. Among the several strategies explored in this contribution, we propose to compare hybrid approaches taking advantages of knowledge bases (symbolic representations) and word embeddings defined from large text corpora analysis. The results we obtain highlight the relative benefits of mixing symbolic representations with classic word embeddings for this task. We then formally define the problem of summarizing sets of concepts and we propose a model mimicking Human-like Intelligence for scoring alternative summaries with regard to a specific objective function. Interestingly, this non-oriented approach for identifying the quality of odors appears to be an actual cognitive automation of the task today performed by expert operators in sensorial analysis. It therefore opens interesting perspectives for developing scalable sensorial analyses based on large sets of evaluators when assessing, for instance, olfactory pollution around industrial sites
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Gaudin, François. "Formulation et application d'un garnissage réactif dans un biofiltre utilisé en traitement d'air". Nantes, 2005. http://www.theses.fr/2005NANT2107.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Proulx, François. "Goûts, odeurs et perception relatifs à la qualité de l'eau potable : une perspective spatio-temporelle". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26376/26376.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Godinot, Nicolas. "Contribution à l'étude de la perception olfactive : qualité des odeurs et mélanges de composés odorants". Lyon 1, 1999. http://www.theses.fr/1999LYO10224.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Callegari, Pascal. "Aspects conceptuels, expérimentaux et calculatoires de la qualité olfactive". Dijon, 1998. http://www.theses.fr/1998DIJOS021.

Texto completo da fonte
Resumo:
Pendant longtemps la qualité olfactive n'a été appréhendée que par le biais de classifications plus intuitives qu'expérimentales. A partir de Woskow (1968), apparaissent les premières mesures de similitudes olfactives établies par interrogation de sujets humains. Simultanément se développent des mesures de profils sémantiques d'odeurs, dont l'atlas de Dravnieks (1985) (160 odorants x 146 descripteurs sémantiques). Enfin, une troisième voie a également été explorée par plusieurs auteurs, celle des profils de similitudes vis-à-vis d'un nombre limité de substances références. En s'appuyant sur les données publiées dans ces trois types de mesures et sur de nouvelles mesures expérimentales, il a pu être établi tout d'abord que la loi de passage des profils sémantiques aux similitudes se fait au moyen du modèle ratio de Tversky (1977), avec un nombre optimal de descripteurs semblant se situer aux environs de 40. Il a également été montré que le modèle le plus approprié de passage des profils de similitudes aux similitudes est celui d'une distance euclidienne pondérée dénommée PS, avec un nombre optimal de substances références se situant aux environs de 20. Ces résultats ont permis d'établir, sur la base de règles statistiques précises, une banque homogène de 16447 similitudes olfactives, se rapportant à 259 odorants. Un résultat inattendu de cette banque homogène est son caractère d'environnement culturel nord-américain, excluant, de surcroit, les sujets professionnels de la parfumerie. A ces résultats s'ajoutent la vérification, sur la base des données actuellement disponibles, que l'adaptation croisée et les phénomènes de synergie et d'inhibition dans les mélanges ne constituent pas des mesures indirectes appropriées de la qualité olfactive. Ont également été explorées les relations complexes existant entre qualité, intensité perçue et caractère hédonique des odeurs. Enfin, a été proposée une amélioration du protocole expérimental habituellement utilisé pour établir des similitudes olfactives à partir de réponses de sujets humains.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Zeaiter, Diana. "Prédiction de l'insatisfaction des utilisateurs liée aux performances des applications de l'Internet". Paris 6, 2012. http://www.theses.fr/2012PA066683.

Texto completo da fonte
Resumo:
De nos jours, nous dépendons énormément sur les activités en ligne telles que l'envoi de courriels à des collègues, la lecture de nouvelles, la réservation de billets de vol et les services VoIP pour rester en contact avec la famille et les amis. Bien que l'Internet fonctionne bien la plupart du temps, la dégradation des performances du réseau se produit encore. Cette thèse développe une méthodologie de prédiction automatique de l'insatisfaction des utilisateurs avec la performance du réseau pour toutes les applications de l'Internet actives sur l'ordinateur. Nous suivons trois étapes pour combler l'écart entre la performance des applications réseau et l'insatisfaction des utilisateurs. Tout d'abord, nous développons HostView, un outil qui fonctionne sur les ordinateurs des utilisateurs et qui collecte des mesures de performance du réseau annotées avec la perspective des utilisateurs. En plaçant la collecte de données sur l'ordinateur de l'utilisateur, nous obtenons le point de vue de l'utilisateur sur la performance du réseau et d'observer l'utilisateur à partir d'un certain nombre d'environnements réseau différents, tels que la maison, le travail, les cafés ou les aéroports. Notre deuxième étape consiste à analyser si les performances du réseau d'un ordinateur (par exemple, les débits et les délais aller-retour) sont très différentes d'un environnement à l'autre. Enfin, nous développons des prédicteurs de l'insatisfaction des utilisateurs avec les performances du réseau. Chaque prédicteur est un classificateur binaire (utilisateur satisfait ou pas) basé sur un ensemble clé de caractéristiques qui sont compilées à partir des mesures de performance du réseau
Network disruptions can adversely impact a user's web browsing, cause video and audio interruptions, or render web sites and services unreachable. Such problems are frustrating to Internet users, who are oblivious to the underlying problems, but completely exposed to the service degradations. This thesis develops a methodology to automatically predict user dissatisfaction with network application performance. We follow an empirical approach. We design HostView to collect network performance data annotated with user feedback at the end-hosts. Our first contribution is to present the results of a survey we did with 400 computer scientists to collect their perspectives on privacy issues and willingness to provide feedback. Guided by the survey results, we implement a first prototype of HostView to evaluate the CPU overhead of candidate techniques to collect network performance data. Then, we implement a second prototype of HostView to tune our algorithm for collecting user feedback to minimize the user annoyance. We recruit users in a large-scale release of HostView. Our user population connects from different networking environments (e. G. , work, home, or coffee shop). Thus, we investigate if the network performance depends on the networking environment. Our third contribution is to show that for most users RTTs and download data rates are significantly different across networking environments. The mix of application determines data rates but it is the environment that determines RTTs. Finally, our fourth contribution is to develop predictors of user dissatisfaction with network application performance. Our predictors consistently achieve true positive rates above 0. 9
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Baglinière, François. "Impacts des souches du genre Pseudomonas protéolytiques sur la stabilité des produits laitiers transformés maîtrise et prédiction de la qualité des laits UHT : maîtrise et prédiction de la qualité des laits UHT". Rennes, Agrocampus Ouest, 2013. http://www.theses.fr/2013NSARB241.

Texto completo da fonte
Resumo:
Ce travail a été effectué afin de mieux comprendre la déstabilisation du lait UHT dont le lait cru a été préalablement contaminé par des bactéries du genre Pseudomonas. La spectroscopie infrarouge à transformée de Fourier (IRTF) a été explorée afin de détecter cette cause et de prédire la stabilité des laits avant leurs transformations technologiques. Premièrement, la sélection de 32 souches du genre Pseudomonas en fonction de leur caractère protéolytique nous a montré qu’il existait une variabilité de protéolyse au sein de ses souches. Deuxièmement, le suivi de la stabilité de laits UHT préalablement et indépendamment inoculés par 9 souches de P. Fluorescens au caractère protéolytique différent, a montré que cette hétérogénéité de protéolyse existait aussi dans le lait UHT. L’addition de la protéase AprX, dans le lait cru avant traitement UHT a également engendré une déstabilisation du lait UHT avant la fin des 90 jours de stockage confirmant le rôle de cette enzyme dans le phénomène de déstabilisation. La déstabilisation se traduisait par des augmentations des teneurs en azote non caséinique (NCN), nous indiquant une protéolyse des micelles de caséines. Les résultats obtenus par l’analyse HPLC couplée à la spectrométrie de masse des fractions NCN des laits déstabilisés ont montré qu’AprX avait un large spectre d’action et était capable d’hydrolyser les caséines β, s1, s2 et κ. Troisièmement, la spectroscopie IRTF nous a permis de déterminer le seuil de détection d’un lait contaminé par une bactérie du genre Pseudomonas ainsi que le seuil de discrimination d'un lait contenant des Pseudomonas protéolytiques d’un lait contenant des Pseudomonas non protéolytiques (5. 102 UFC/mL). Cependant, des travaux supplémentaires sont à réaliser afin que la spectroscopie IRTF soit utilisée comme un outil de prédiction de la stabilité des laits
This work has been conducted to understand the destabilization of UHT milk with raw milk previously contaminated by proteolytic Pseudomonas. Infrared spectroscopy Fourier transform has been explored in order to detect the cause and predict the stability of milk before their technological transformations. First, the selection of 32 strains of the genus Pseudomonas based on their proteolytic character has shown that there is a variability of proteolysis. In a second step, the monitoring of the stability of UHT milk previously and independently inoculated by nine strains of P. Fluorescens, with different proteolytic potential, showed that this heterogeneity of proteolysis also happened in UHT milk. The addition of protease AprX in raw milk before UHT treatment also resulted in a destabilization of UHT milk before the end of 90 days of storage, confirming the role of this enzyme in the phenomenon of destabilization. For each experiment performed, the destabilization resulted in increases of non-casein nitrogen contents (NCN), indicating proteolysis of casein micelles. The results obtained by HPLC analysis coupled with mass spectrometry of NCN fractions of milk destabilized showed that AprX had a large action spectrum and was able to hydrolyze β,  s1, s2 and κ casein. In a third step, FTIR spectroscopy allowed us to determine the threshold for detection of milk contaminated with bacteria of the genus Pseudomonas and the discrimination threshold of milk containing proteolytic Pseudomonas from milk containing non-proteolytic Pseudomonas (5. 102 CFU / mL). However, further works have to be undertaken to use FTIR spectroscopy as a tool for predicting the stability of milk
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Saverimoutou, Antoine. "Métrologie de l'internet du futur : caractérisation, quantification et prédiction de la qualité de la navigation web". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0186.

Texto completo da fonte
Resumo:
La navigation Web est l'un des principaux services de l’Internet où un large éventail d'acteurs est impliqué et évolue de manière constante. Les nouveaux protocoles de l’Internet, les réseaux de diffusion de contenu (CDN) ou encore les évolutions des différents navigateurs Web sont destinés à améliorer les temps de chargement des pages. Pour mieux comprendre la Qualité d'Expérience (QoE) perçue par les utilisateurs, il est donc essentiel d’identifier comment le contenu des pages est constitué et délivré et de fournir une métrique de QoE pertinente. Dans cette thèse, nous avons conçu un nouvel outil, Web View, destiné à effectuer des sessions de navigation Web automatisées et mesurant de nombreuses informations liées à l’écosystème du Web. Nous avons aussi défini une nouvelle métrique Web, le Time for Full Visual Rendering (TFVR). À partir de plus de 18 trillions de mesures effectuées pendant 2,5 ans sur les 10,000 sites Web les plus visités (selon la classification Alexa), nous avons utilisé des techniques statistiques pour identifier les paramètres clés qualifiant et quantifiant la qualité de la navigation Web. Cet ensemble de facteurs a été confirmé par un processus d'apprentissage automatique, donnant en sortie un ensemble de règles pour prédire les temps de chargement des pages Web. Pour les pages Web où des fluctuations dans les temps de chargement sont fréquentes, nous avons utilisé des modèles de chaines de Markov cachées suivant un processus de Dirichlet hiérarchique (HDP-HMM) pour enrichir notre modèle et ainsi augmenter le taux de prédiction correspondant. L'évaluation de notre modèle basé sur un arbre de décision sur des sites Web jamais mesurés montre que nous pouvons prédire correctement la qualité de la navigation Web. Ces travaux visent ainsi à permettre aux opérateurs de réseaux et aux fournisseurs de services d’augmenter la Qualité de Service (QoS) offerte à leurs clients
Web browsing is one of the main Internet services where a wide set of actors are involved and evolves constantly. New Internet protocols, Content Delivery Networks (CDN) or web browsers’evolutions are meant to improve web pages’ loading times. In order to better understand the Quality of Experience (QoE) perceived by end-users, it is of prime importance to identify how web pages’ content is composed and delivered as well as providing are levant QoE metric. In this thesis, we have designed a new tool, Web View, meant to perform automatic Web browsing and measures several aspects of the Web browsing eco-system. We have also introduced a new web metric, the Time for Full Visual Rendering (TFVR). From more than 18 Trillion measurements performed over 2.5 years on the Top 10,000 Alexa websites, we have used statistical techniques to identify the key parameters qualifying and quantifying web browsing quality. This set of factors has been confirmed by a machine learning process, which gives as output the set of rules to predict web pages’ loading times. For websites where fluctuations in loading times happen regularly, we have used the Hierarchical Dirich let Process Hidden Markov Model (HDP-HMM) to enrich our rulesbased models in order to increase the correctness in prediction rates. The evaluation of our decision treebased model on never assessed websites shows that we can correctly predict web browsing quality. This work aims at helping network operators and service providers to increase the Quality of Service (QoS) offered to their customers
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Al-Kharaz, Mohammed. "Analyse multivariée des alarmes de diagnostic en vue de la prédiction de la qualité des produits". Electronic Thesis or Diss., Aix-Marseille, 2021. http://theses.univ-amu.fr.lama.univ-amu.fr/211207_ALKHARAZ_559anw633vgnlp70s324svilo_TH.pdf.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse à la prédiction de la qualité de produits et à l’amélioration de la performance des alarmes de diagnostics au sein d’une usine de semi-conducteurs. Pour cela, nous exploitons l’historique des alarmes collecté durant la production. Premièrement, nous proposons une approche de modélisation et d’estimation du risque de dégradation du produit final associé à chaque alarme déclenchée en fonction du comportement d’activation de celle-ci sur l’ensemble des produits durant la production. Deuxièmement, en utilisant les valeurs de risque estimées pour toute alarme, nous proposons une approche de prédiction de la qualité finale d’un lot de produits. Grâce à l’utilisation des techniques d’apprentissage automatique, cette approche modélise le lien entre les événements d’alarmes des processus et la qualité finale du lot. Dans la même veine, nous proposons une autre approche basée sur le traitement du texte d’évènement d’alarmes dans le but de prédire la qualité finale du produit. Cette approche présente une amélioration en termes de performances et en termes d’exploitation de plus d’information disponible dans le texte d’alarme. Enfin, nous proposons un cadre d’analyse des activations d’alarmes en présentant un ensemble d’outils d’évaluation de performances et plusieurs techniques de visualisation interactive plus adaptées pour la surveillance et l’évaluation des processus de fabrication de semi-conducteurs. Pour chacune des approches susmentionnées, l’efficacité est démontrée à l’aide d’un ensemble de données réelles obtenues à partir d’une usine de fabrication de semi-conducteurs
This thesis addresses the prediction of product quality and improving the performance of diagnostic alarms in a semiconductor facility. For this purpose, we exploit the alarm history collected during production. First, we propose an approach to model and estimate the degradation risk of the final product associated with each alarm triggered according to its activation behavior on all products during production. Second, using the estimated risk values for any alarm, we propose an approach to predict the final quality of the product's lot. This approach models the link between process alarm events and the final quality of product lot through machine learning techniques. We also propose a new approach based on alarm event text processing to predict the final product quality. This approach improves performance and exploits more information available in the alarm text. Finally, we propose a framework for analyzing alarm activations through performance evaluation tools and several interactive visualization techniques that are more suitable for semiconductor manufacturing. These allow us to closely monitor alarms, evaluate performance, and improve the quality of products and event data collected in history. The effectiveness of each of the above approaches is demonstrated using a real data set obtained from a semiconductor manufacturing facility
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Legrand, Jean-François. "Prédiction de trafic dans les réseaux de téléphonie mobile par des méthodes statistiques et neuronales". Paris 6, 2003. http://www.theses.fr/2003PA066543.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Shi, Jie. "Influence des erreurs de transmission sur la qualité de la parole synthétique d'un vocodeur à prédiction linéaire". Toulouse 3, 1990. http://www.theses.fr/1990TOU30175.

Texto completo da fonte
Resumo:
Le vocodeur a prediction lineaire permet de transmettre la parole avec un faible debit. Cependant, le bruit de transmission perturbe severement la qualite de la parole synthetique. La degradation de cette derniere depend de la position des parametres errones dans les trames de transmission. Cette dependance est due d'une part a la structure du filtre de synthese sous forme de treillis, et d'autre part aux densites de distribution de chacun des parametres. Pour evaluer la sensibilite aux parasites des differents parametres d'une trame de parole compressee, les tests d'intelligibilite sont utilises comme mesure subjective, ceci attribue a chaque parametre un score indiquant son importance en presence de bruit de transmission. La distance spectrale ponderee est adoptee comme mesure objective de la degradation de parole synthetique. Cette mesure donne non seulement un score a chaque parametre de transmission, mais egalement la distribution frequentielle de la distorsion due a la perturbation de ces derniers. Un vocodeur a prediction lineaire en temps reel est mis en uvre sur un microprocesseur de traitement du signal
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Nauge, Michaël. "Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue". Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2300/document.

Texto completo da fonte
Resumo:
Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images
In the field of computer vision, the use of interest points (IP) is very frequent for objects tracking and recognition. Several studies have demonstrated the usefulness of these techniques, combining robustness and complexity that can be compatible with the real time. This thesis proposes to explore and exploit these image statistical descriptors under a different angle. Thus, we conducted a study on the relationship between IP and human visual saliency. In this study, we developed a method for predicting saliency maps relying on the efficiency of the descriptors. We also used the descriptive power of the PI to develop new metrics for image quality. With encouraging results in terms of prediction of perceived quality and the reduced amount of used information, we were able to integrate our metric "QIP" in an image transmission framework over a MIMO wireless network. The inclusion of this metric can improve the quality of experience by ensuring the best visual quality despite the errors introduced by the wireless transmission. We have extended this study by deeply analyzing structural statistics of the image and migration attributes to provide a generic model for predicting impairments. Finally, we conducted various psychovisual experiments to validate the proposed approaches or to contribute to JPEG standard committee. This led to develop a web application dedicated to the benchmark of image quality metrics
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Sutton-Charani, Nicolas. "Apprentissage à partir de données et de connaissances incertaines : application à la prédiction de la qualité du caoutchouc". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1835/document.

Texto completo da fonte
Resumo:
Pour l’apprentissage de modèles prédictifs, la qualité des données disponibles joue un rôle important quant à la fiabilité des prédictions obtenues. Ces données d’apprentissage ont, en pratique, l’inconvénient d’être très souvent imparfaites ou incertaines (imprécises, bruitées, etc). Ce travail de doctorat s’inscrit dans ce cadre où la théorie des fonctions de croyance est utilisée de manière à adapter des outils statistiques classiques aux données incertaines.Le modèle prédictif choisi est l’arbre de décision qui est un classifieur basique de l’intelligence artificielle mais qui est habituellement construit à partir de données précises. Le but de la méthodologie principale développée dans cette thèse est de généraliser les arbres de décision aux données incertaines (floues, probabilistes,manquantes, etc) en entrée et en sortie. L’outil central d’extension des arbres de décision aux données incertaines est une vraisemblance adaptée aux fonctions de croyance récemment proposée dans la littérature dont certaines propriétés sont ici étudiées de manière approfondie. De manière à estimer les différents paramètres d’un arbre de décision, cette vraisemblance est maximisée via l’algorithme E2M qui étend l’algorithme EM aux fonctions de croyance. La nouvelle méthodologie ainsi présentée, les arbres de décision E2M, est ensuite appliquée à un cas réel : la prédiction de la qualité du caoutchouc naturel. Les données d’apprentissage, essentiellement culturales et climatiques, présentent de nombreuses incertitudes qui sont modélisées par des fonctions de croyance adaptées à ces imperfections. Après une étude statistique standard de ces données, des arbres de décision E2M sont construits et évalués en comparaison d’arbres de décision classiques. Cette prise en compte des incertitudes des données permet ainsi d’améliorer très légèrement la qualité de prédiction mais apporte surtout des informations concernant certaines variables peu prises en compte jusqu’ici par les experts du caoutchouc
During the learning of predictive models, the quality of available data is essential for the reliability of obtained predictions. These learning data are, in practice very often imperfect or uncertain (imprecise, noised, etc). This PhD thesis is focused on this context where the theory of belief functions is used in order to adapt standard statistical tools to uncertain data.The chosen predictive model is decision trees which are basic classifiers in Artificial Intelligence initially conceived to be built from precise data. The aim of the main methodology developed in this thesis is to generalise decision trees to uncertain data (fuzzy, probabilistic, missing, etc) in input and in output. To realise this extension to uncertain data, the main tool is a likelihood adapted to belief functions,recently presented in the literature, whose behaviour is here studied. The maximisation of this likelihood provide estimators of the trees’ parameters. This maximisation is obtained via the E2M algorithm which is an extension of the EM algorithm to belief functions.The presented methodology, the E2M decision trees, is applied to a real case : the natural rubber quality prediction. The learning data, mainly cultural and climatic,contains many uncertainties which are modelled by belief functions adapted to those imperfections. After a simple descriptiv statistic study of the data, E2M decision trees are built, evaluated and compared to standard decision trees. The taken into account of the data uncertainty slightly improves the predictive accuracy but moreover, the importance of some variables, sparsely studied until now, is highlighted
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Lahyani, abdennadher Imene. "Gestion de la qualité de service des systèmes publier/souscrire déployés sur un réseau mobile ad hoc". Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0053/document.

Texto completo da fonte
Resumo:
L’objectif de cette thèse est la gestion de la QdS des systèmes publier/souscrire sur MANET. Ceci provoque un maintien permanent de la connectivité entre les parties communicantes du système. Plus précisément, les contributions de cette thèse, sont organisées autour de deux grands axes relatifs aux modules de monitoring et d’analyse de la QdS de ces systèmes dans un contexte ad-hoc. Ceci englobe les etapes de collecte des paramètres de QdS au cours du fonctionnement du système, et de détection des dégradations pouvant l’affecter.Contrairement à ce qui existe dans la littérature, notre module d’analyse, basé sur des méthodes statistiques, se base sur des seuils adaptatifs qui tiennent en comptes de la dynamicité du réseau et des changements affectant le contexte ad-hoc. En outre, le module d’analyse proposé offre à l’utilisateur une variété de choix entre une analyse réactive, proactive et hybride. Notre module permet aussi une localisation des pannes une fois détectées ou prédites. Des expérimentations menées à l’aide du simulateur Jist/Swans ont montré l’efficacité des modules developpés. De plus, une mesure des paramètres de performance du système avant et après introduction des modules développés a montré leur efficacité. Finalement, une étude de la complexité spatiale et temporelle du module analytique proposé a été réalisée
Mobile ad-hoc networks (MANET) is a set of nodes, communicating meaning wireless channel without any centralized control. The main characteristic of MANET is the frequent mobility of its nodes leading to some dynamic changes of topology. Nodes mobility in such networks introduces possible disconnections between adjacent nodes, and more generally quality of service (QoS) degradation issues that do not fit well with QoS requirements of QoS sensitive applications. Publish/subscribe communicating system has been proposed at the middleware layer in order to communicate mobile entities in MANET. Such system is a decoupled interaction between publishers (or producers) and receivers (or consumers).Our goal in this thesis is to provide a QoS management for publish/subscribe systems when deployed on MANET while assuming a best effort flux at the routing layer. This thesis proposes an analytical model for latency aware publish/subscribe systems on mobile ad-hoc networks. The proposed approach combines both proactive and reactive statistical analysis.On the one hand, the reactive analysis, suitable for multimedia applications, detects failures by approximating latency series with Gumbel distribution. On the other hand, the proactive analysis, suitable for crisis management applications, forecasts failures occurrence relying on Auto Regression or Auto Regressive Integrated Moving Average Formulas. Finally, a hybrid analysis was proposed by dynamically switching from reactive to predictive forms of analysis whenever quality of service violations are noticed. In order to extract failure cause, we refer to the correlation method once failure was detected or predicted. Simulations done, using Jist/Swans simulator, under different scenariosproved the efficiency and accuracy of the proposed scheme
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Buatois, Séverine. "Facteurs de prédiction des chutes chez les personnes âgées : relation entre qualité du contrôle postural et risque de chutes". Nancy 1, 2006. http://docnum.univ-lorraine.fr/public/SCD_T_2006_0187_BUATOIS.pdf.

Texto completo da fonte
Resumo:
L’instabilité posturale de la personne âgée augmente le risque de chutes. Les tests cliniques et posturographiques sont des moyens fréquemment utilisés pour l’évaluation du contrôle postural, bien que leur valeur prédictive dans l’estimation du risque de chute reste encore incertaine. L’objectif de cette étude a été de déterminer la valeur prédictive de la posturographie dans l’estimation du risque de chutes, en comparaison avec des tests cliniques d’équilibre, chez des personnes âgées de plus de 65 ans. L’équilibre a été évalué chez 206 sujets par des tests posturographiques statiques et dynamiques et le test d’organisation sensorielle (SOT), et par des tests cliniques (Timed-Up-&-Go, appui unipodal, relevé de chaise). Les chutes ont ensuite été enregistrées tous les 4 mois, par l’intermédiaire d’un auto-questionnaire, sur une période de 24 mois. Le principal paramètre prédictif du risque de chutes à répétition ou de chutes d’origine intrinsèque, chez les sujets avec ou sans antécédents de chutes, était la présence d’une perte d’équilibre au cours du 3ème essai de la condition de conflit sensoriel du SOT. La prise de plusieurs médicaments et les antécédents de chutes étaient associés au risque de chute. Les tests cliniques et posturographiques statiques et dynamiques n’ont pas mis en évidence de différence significative entre les groupes étudiés. Pour des personnes âgées de plus de 65 ans, en bonne santé apparente, l’évaluation posturographique par le SOT, en particulier en condition de conflit sensoriel, semble être le moyen d’évaluation le plus sensible pour identifier les personnes présentant un risque élevé de chutes à répétition ou de chutes d’origine intrinsèque
A poor postural stability in older people is associated with an increased risk of falling. Posturographic and clinical tool have widely been used to assess balance control; however their value in predicting falls remains unclear. The purpose of this prospective study was to determine the predictive value of posturography in the estimation of the risk of falls, including a comparison with standard clinical balance tests, in healthy non-institutionalized persons aged over 65. Postural control was evaluated by posturographic static and dynamic tests and Sensory Organization Test (SOT) and by clinical balance tests (Timed «Up & Go» test, One-Leg Balance, Sit-to-Stand-test) in 206 elderly subjects. Subsequent falls were monitored prospectively with self-questionnaire sent every four months for a period of 24 months after the balance testing. Loss of balance during the last trial of the SOT sensory conflicting condition was the best factor to predict risk of recurrent falls and intrinsic falls. Multiple drugs use and history of falls were associated with risk of falls. Clinical balance tests, static tests and dynamic tests revealed no significant differences between the groups. In a sample of non-institutionalized older persons aged over 65, posturographic evaluation by the SOT, especially in sensory conflicting condition, appears to be a more sensitive tool to identify those at high risk of recurrent falls or risk of intrinsic falls
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Mesbahi, Geoffrey. "Prédiction de propriétés agroécologiques de prairies permanentes et de leurs compromis : l’exemple du massif vosgien". Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0086.

Texto completo da fonte
Resumo:
Les prairies permanentes ont un intérêt majeur en France : elles assurent la moitié de la production fourragère, accueillent une riche biodiversité, et séquestrent le carbone. Mieux comprendre les déterminants des propriétés agroécologiques, mais aussi leurs compromis, peut aider les agriculteurs, leurs conseillers agricoles et les écologues à valoriser des prairies diversifiées, et une diversité de prairies. Les objectifs de cette thèse sont 1) d’identifier les critères du milieu, des pratiques agricoles et de la végétation qui prédisent les propriétés prairiales, 2) de prédire les propriétés agroécologiques à l’aide de typologies de prairies, sans connaissance précise des critères environnementaux ni des pratiques agricoles, 3) d’étudier et prédire les compromis entre propriétés d’une même prairie, 4) de se questionner sur la transmission des connaissances entre scientifiques, agriculteurs et conseillers. Pour atteindre ces objectifs, j’ai valorisé une base de données de près de 800 prairies permanentes d’études précédentes. J’en ai extrait 59 prairies représentatives du massif vosgien, sur lesquelles j’ai réalisé des relevés botaniques, des mesures de rendement, et des prélèvements de fourrage et de sol, et collecté des informations sur les pratiques agricoles, le climat et la topographie. Les résultats montrent que les compositions botaniques sont difficilement prédictibles et principalement influencées par des gradients d’intensité des pratiques, de sol et d’altitude. La prédiction des propriétés agroécologiques montre de grandes variabilités de qualité : des propriétés écologiques et agronomiques sont correctement prédites par des critères du sol, du climat, du paysage et de la composition botanique. Les propriétés écologiques sont difficilement prédictibles avec les typologies prairiales seules, mais la combinaison de typologies améliore la qualité des prédictions. Les résultats montrent aussi qu’une même prairie ne peut pas répondre à toutes les attentes des agriculteurs et conseillers, mais il est possible d’associer rendement et diversité botanique ; qualités nutritives ; ou encore espèces patrimoniales et souplesse d’exploitation. Enfin, la réflexion sur la transmission des connaissances entre scientifiques et acteurs de terrain montre qu’il est nécessaire de trouver un équilibre entre précision des outils et facilité d’utilisation afin de s’adapter aux attentes de tous. Cette thèse apporte donc de nouvelles connaissances sur la prédiction des propriétés agroécologiques des prairies permanentes et de leurs compromis à grande échelle, notamment grâce à la prise en compte de nombreux critères prédictifs liés aux milieux, aux pratiques agricoles et à la végétation, mais aussi grâce à la prédiction de propriétés encore méconnues. Enfin, cette thèse soulève le problème de la création d’outils polyvalents permettant de prédire les propriétés agroécologiques des prairies permanentes
In France, permanent grasslands are associated with agronomic and ecological characteristics: they provide half of overall forage, shelter vegetal and animal species, and store carbon. Increasing our understanding of agroecological characteristic determinants, and the trade-offs between characteristics, could help farmers and advisors to promote high-diversity grasslands, but also a diversity of grasslands. The objectives of this thesis are 1) to predict grassland characteristics using environmental, agricultural practices and vegetation criteria, 2) to predict grassland characteristics using vegetation classifications without information about environment and agricultural practices, 3) to study and predict trade-offs between characteristics at grassland scale, 4) to query knowledge transfer between researchers, farmers and farmer advisors. For this purpose, I built a database of almost 800 permanent grasslands from previous studies. I then selected a representative sample of 59 grasslands for this database over which I conducted field and lab analyses of botanical compositions, yields, forage qualities and soil properties. I also collected information about agricultural practices, climate and topography for each of these grasslands. My results show that botanical compositions are difficult to predict, and are mainly influenced by agricultural intensification, soil and elevation gradients. Prediction of agroecological characteristics show wide variabilities: some agronomical- and ecological- characteristics are predicted well by soil, climate, landscape and botanical composition criteria. However, using only vegetation classifications could not reliably predict ecological characteristics, despite the improvement of prediction quality when combining classifications. Study of trade-offs highlighted the impossibility to combine all the agroecological characteristics for one grassland. However, I observed combinations between yield and botanical diversity, between the different indices of nutritive value, and between patrimonial species and flexibility of management. Finally, several tools can be used to transfer knowledge between scientists, farmers and advisors, but an equilibrium between tools accuracy and ease to use have to be found. This thesis work brings new insights in our understanding of large scale permanent grassland agroecological characteristics and their trade-offs, thanks to the inclusion of many predictive criteria related to environment, agricultural practices and vegetation, but also thanks to the prediction of unknown characteristics. Finally, this thesis addresses the issue of developing polyvalent tools that can be used to predict grassland agroecological characteristics
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Al, Mezzawi Ali. "Démarche de prédiction du bruit d'une unité de ventilation automobile par une méthode de synthèse". Compiègne, 2012. http://www.theses.fr/2012COMP2056.

Texto completo da fonte
Resumo:
Le confort acoustique interne véhicule représente une demande importante sur le marché automobile. Le contrôle sonore du bruit de l'unité de ventilation est déjà un enjeu essentiel pour les véhicules dotés d’un moteur thermique et sera prépondérant dans le futur pour les motorisations hybrides et électriques. Par conséquent la prédiction du bruit et l'évaluation de sa qualité dans la phase de conception est considérée comme un grand avantage pour les équipementiers automobiles. Dans ce travail, un modèle de prédiction du bruit d'un prototype d'une unité de ventilation automobile, basé sur le prototypage virtuel et sur une approche de synthèse (NST), est proposé Ce modèle est basé sur la décomposition de l'unité de ventilation en éléments caractérisés chacun en tant que source et/ou en tant que voie de transfert. Le comportement acoustique de ces composants a été défini en termes de puissance acoustique pour les sources et de perte par transmission pour les voies de transfert. Cette caractérisation a été effectuée en utilisant des données de mesures et des formules empiriques trouvées dans la littérature : Pour le ventilateur centrifuge, une formule proposée par l’ASHRAE. Pour l'évaporateur des données de mesures effectuées sur le banc d'essai de l'UTC. Pour le volet une formule générique proposée par Nelson et Morfey. Pour toutes les voies de transmission, sauf l'évaporateur, la formule proposée par Munjal. Le calcul a été effectué à l'aide du logiciel EQUIP+. Afin de valider les résultats du modèle, des mesures de puissance acoustique ont été réalisées sur un prototype simplifié de l'unité de ventilation. Ces mesures ont été effectuées sous les mêmes hypothèses que celles utilisées pour le modèle de prédiction. La comparaison des puissances mesurées et prédites a montré que pour toutes les vitesses de ventilateur, l'erreur en terme de niveau global est inférieure à 3 dB lorsque l'angle d'inclinaison du volet est supérieure à 20 ° et atteint 10 dB à 0 ° (obstruction complète du conduit par le volet). Pour améliorer le modèle aéro-acoustique du volet, une étude spécifique basée sur des mesures au banc d'essai de l'UTC a été réalisée. Les résultats ont conduit à proposer un modèle de source du volet qui appliqué au logiciel de prédiction du bruit a permis de réduire l’erreur pour les angles faibles
Interior vehicle acoustic comfort represents an essential passenger demand on the car selling market. In addition to engine noise, the sound control of automotive ventilation units is key issue. It will become more critical in the future for hybrid and electric powertrains. Therefore sound prediction and sound quality assessment in the design phase is considered as a great advantage for automotive equipment manufacturers. In this work a model for the sound prediction of an automotive ventilation unit prototype, based on virtual acoustic prototyping and Noise synthesis Technology (NST) approach, is proposed. This model is based on the decomposition of the ventilation unit into its physical components, each characterized as a source and/or as a transfer path. The acoustic behaviour of these components was characterized in terms of acoustic power for the sources and transmission loss for the transfer paths. This characterization was performed using data provided by measurements and empiric formulas found in the acoustic literature: For the centrifugal fan, a formula proposed by the ASHRAE. For the heat exchanger measured data from the UTC's test bench. For the butterfly valve a generic formula proposed by Nelson and Morfey. For all the transmission paths, apart from the heat exchanger, the formula given by Munjal. The prediction of the product sound was then done using the multi-task software tool EQUIP+. In order to validate the model’s results, sound power measurements were performed on the modelled ventilation unit prototype, containing only the investigated components. These measurements were done under the same hypothesis applied to the prediction model. The comparison of the measured and predicted sound powers showed that for all fan speeds, the error in term of global levels is less than 3dB when the butterfly inclination angle is greater than 20° and reached 10 dB at 0°, which is a fully closed angle. To improve the aero-acoustic pattern of the butterfly valve, specific measurements were carried out on the UTC's test bench. The results enabled us to propose a new butterfly valve pattern. This pattern was applied to noise prediction model and the error for small angles was reduced
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Verriele-Duncianu, Marie. "Nature et origines des composés organiques volatils et odeurs présents dans un habitacle de véhicule : impact des pièces automobiles sur la qualité de l'air intérieur". Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10205.

Texto completo da fonte
Resumo:
La qualité de l’air à l’intérieur d’un habitacle (QAH) est un sujet d’intérêt grandissant chez les constructeurs automobiles soucieux de garantir un air sain et une ambiance olfactive agréable dans leurs véhicules. La QAH s’évalue par l’innocuité des composés émis dans l’habitacle vis-à-vis des voies respiratoires et de la peau. Elle se traduit également par l’odeur générée par le mélange de ces composés. La diversité des matériaux utilisés et le degré de confinement de l’habitacle sont à l’origine, à l’état neuf, de la pollution intérieure. Le but de ces travaux est d’abord d’accroître les connaissances sur les sources d’émissions de composés organiques volatils (COV) et d’odeurs mais également d’évaluer leur impact sur la QAH. De nombreuses techniques d’échantillonnage et d’analyses des COV ainsi que des méthodes d’évaluation olfactive ont donc été mises en œuvre. Sur un véhicule modèle, l’impact des pièces de l’habitacle sur la QAH a été évalué, d’une part, grâce à la mise en œuvre d’un modèle de calcul des contributions des pièces aux teneurs ambiantes de l’habitacle (Chemical Mass Balance) ; et d’autre part, grâce à des analyses multi-variées des profils sensoriels des pièces et de l’habitacle. Enfin, le croisement des données physico-chimiques et des données sensorielles obtenues, ainsi que des mesures par GC-Olfactométrie ont permis d’identifier des familles de composés responsables des odeurs en habitacle
The car air quality (CAQ) inside the passenger compartment is a subject of growing interest among manufacturers concerned with ensuring a healthy car interior and a pleasant olfactory ambiance in their vehicles. The CAQ is nowadays evaluated for innocuity of the compounds emitted into the cabin towards the respiratory tract and the skin, but also for the odorous synergy of the mixture of compounds. The variety of materials and the confinement level of new cabins are the factors behind car indoor pollution. The primary aim of this work is to increase knowledge about the emission sources of volatile organic compounds (VOC) and odors, but also to assess their impact on the CAQ. Numerous VOC sampling and analysis techniques and odor evaluation methods have been implemented. The impact of each car part on the CAQ was assessed, firstly, using model calculations to determine the contributions of each car part to ambient VOC levels (Chemical Mass Balance) and secondly, by multivariate analysis of sensory profiles of car parts and cabin assembly. Finally, linking chemical and sensory data and GC-Olfactometry analysis allowed for identification of chemical families involved in car cabin smells
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Iordache, Vlad. "Etude de l'impact de la pollution atmosphérique sur l'exposition des enfants en milieu scolaire : recherche de moyens de prédiction et de protection". La Rochelle, 2003. http://www.theses.fr/2003LAROS095.

Texto completo da fonte
Resumo:
Le projet développé par LEPTAB et ATMO dans le cadre d'un programme PRIMEQUAL a pour but d'analyser la relation entre les niveaux de pollution de l'intérieur et de l'extérieur des bâtiments. La première phase a consisté dans l'établissement d'une base de données expérimentales en enregistrant simultanément les concentrations en oxydes d'azote, ozone et particules, à l'extérieur et à l'intérieur de huit écoles. Les autres paramètres enregistrés sont la température et l'humidité intérieures, l'occupation des salles, les ouvertures des fenêtres et la différence de pression intérieur-extérieur. La deuxième phase concerne une analyse statistique des données mesurées afin de ressortir les paramètres influençant sur la relation entre les deux niveaux de pollution. La dernière phase présente des modèles de type logique-floue pour chaque polluant pour la prédiction de l'exposition à l'intérieur des salles de classe à partir du niveau de pollution atmosphérique et de la perméabilité du bâtiment
This research project developed by LEPTAB and AREQUA in the framework of PRIMEQUAL program targets for the relation between the indoor and local outdoor pollution. The first phase of this project consisted in the establishment of the experimental database by simultaneous recordings of the indoor and outdoor nitrogen oxides, ozone and particles matter concentrations, in eight schools in La Rochelle, France. The other recorded parameters are the indoor temperature and humidity, classroom occupation, window openings, indoor-outdoor pressure difference, wind speed and direction. The second phase presents a statistical analysis of the measured data in order to bring into view those parameters influencing the relation between the indoor and outdoor levels of pollution. The last phase provides different neuro-fuzzy models for all pollutants that can successfully be used to predict the indoor pollution level as a function of the outdoor pollution level and the building airtightness
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Sandu, Adrian. "Contribution à l'étude numérique du transport turbulent de polluants particulaires en cavité : application à la prédiction de la diffusion d'éléments contaminants particulaires dans un local ventilé". La Rochelle, 1999. http://www.theses.fr/1999LAROS044.

Texto completo da fonte
Resumo:
Ce travail numérique est une contribution à l'étude de la qualité de l'air liée à la présence de polluants particulaires dans les locaux. Après l'analyse physique des interactions subies par les particules injectées dans un écoulement fluide, nous avons développé un outil numérique permettant de simuler le comportement des particules dans les écoulements faiblement turbulents typiques du bâtiment, en faisant l'hypothèse que les particules n'influencent pas l'écoulement et que les interactions particule - particule peuvent être négligées. La dispersion des particules dans le fluide en écoulement est résolue par une approche lagrangienne qui consiste à simuler un certain nombre de trajectoires à partir desquelles les grandeurs moyennes caractérisant le comportement des particules sont ensuite obtenues statistiquement. Pour cela, les vitesses instantanées du fluide sont obtenues par tirages aléatoires, à partir des champs moyens de l'écoulement et des corrélations spatiales et temporelles. A ce stade du travail, nous avons testé plusieurs modèles de prédiction des caractéristiques instantanées du fluide, et nous avons retenu celui qui semblait le plus approprié à la modélisation des configurations qui nous intéressent. Pour la construction de la trajectoire d'une particule discrète on résout la relation dynamique établie à partir du bilan des forces agissant sur la particule. Les résultats obtenus dans le cas d'une turbulence de grille sont comparés à des résultats expérimentaux. Nous avons également étudié l'influence de la précision de la prédiction des caractéristiques turbulentes de l'écoulement sur la dispersion des particules, ainsi que la capacité des modèles de turbulence basés sur une décomposition en moyennes temporelles à résoudre correctement les écoulements turbulents. Finalement, le modèle de dispersion des particules a été utilisé pour caractériser la déposition de particules sur les parois dans un écoulement turbulent confiné correspondant à la configuration d'une cavité agitée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Guichoux, Erwan. "Prédiction de la qualité des bois de chêne pour l’élevage des vins et des alcools : comparaison des approches physicochimiques, sensorielles et moléculaires". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14246/document.

Texto completo da fonte
Resumo:
Au cours du vieillissement, les caractéristiques organoleptiques du vin se modifient au contact du bois de chêne. Le composé aromatique le plus important, la whisky-lactone, aux notes noix de coco et boisé, est facilement détectable et apprécié par les consommateurs.Quercus petraea et Q. robur, les deux principales espèces européennes de chêne utilisées pour le vieillissement des vins, ont des profils aromatiques très contrastés, particulièrement pour la whisky-lactone. Parvenir à identifier l’espèce de chêne permettrait de fournir aux tonnelleries des lots de bois plus homogènes. L’objectif de cette étude est d’identifier l’espèce de chêne à partir de bois sec, à l’aide de marqueurs moléculaires utilisables dans un contexte industriel. Le bois sec est un tissu mort dans lequel l’ADN est très dégradé et donc difficilement accessible. Pour optimiser l’extraction d’ADN à partir de ce tissu, nous avons développé une méthode de PCR en temps-réel ciblant l’ADN chloroplastique, permettant ainsi d’évaluer l’efficacité des différents protocoles d’extraction. Nous avons également développé des marqueurs moléculaires (SSRs et SNPs) fortement différenciés entre espèces et particulièrement bien adaptés au bois. Grâce à des protocoles d’extraction d’ADN optimisés et ces marqueurs performants, nous avons pu identifier l’espèce sur des lots de bois séchés pendant deux ans. De plus, par l’étude de 262 SNPs dont la moitié est fortement différenciée entre espèces, nous avons démontré que les gènes sélectionnés (loci « outlier ») sont très performants pour délimiter ces deux espèces proches. Ils permettent également de détecter des processus démographiques fins (flux de gènes intra- et interspécifiques), alors que les gènes a priori non-sélectionnés (loci neutres) se révèlent peu informatifs
Most of aromatic compounds in wine are directly induced during maturation by the contactwith oak wood. For example, whisky-lactone, the most important aromatic compound,which gives a coconut and woody taste, is easily detected and appreciated by consumers.Quercus petraea and Q. robur, the two major European oak species used for wine maturation,have very contrasted aromatic patterns, especially for whisky-lactone. Identifying the speciesused for cooperage will facilitate the maturation process, for instance by providing winerieswith more homogenous batches of barrels. The objective of our study is to characterize theoak species directly from dry wood, using molecular markers that will be applicable in anindustrial context. Unfortunately, dry wood is a dead tissue in which DNA is highlydegraded and difficult to access. To optimize DNA recovery from dry wood, we developed aquantitative PCR protocol based on chloroplast DNA to evaluate the efficiency of DNAisolation protocols. We identified and developed molecular markers (SSRs and SNPs)adapted to dry wood that are particularly diagnostic. Using an optimized DNA isolationprotocol and these powerful markers, the species identity from wood samples dried duringtwo years could be successfully characterized. Using 262 SNPs highly differentiated betweenthe two species, we also demonstrate that genes under selection (outlier loci) haveoutstanding power to delimitate the two oak species and provide unique insights on intraandinterspecific gene flow, whereas genes lacking such a signature (putatively neutral loci)provide little or no resolution
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Chabert, Isabelle. "Développement et validation d’un modèle de sources virtuelles adapté à la prédiction d’images EPID pour le contrôle qualité des traitements de RCMI". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112016/document.

Texto completo da fonte
Resumo:
L’essor des nouvelles techniques de traitement en radiothérapie externe a rendu nécessaire la mise en place de nouveaux contrôles qualité (CQ). Il est en effet capital de s’assurer que la dose délivrée au patient est bien conforme à celle qui lui a été prescrite. Les détecteurs EPID, initialement utilisés pour contrôler l’exactitude du positionnement du patient, sont de plus en plus employés pour vérifier la conformité du traitement. L’image qu’ils enregistrent au cours d’une irradiation peut par exemple être comparée à une image de référence, qui correspond à ce qui aurait été mesuré si le traitement s’était déroulé dans les conditions de sa planification. Le succès de ce CQ repose (1) sur la précision avec laquelle on peut prédire l’image EPID (ou portale) de référence et (2) sur les performances de l’outil de comparaison d’image utilisé. Nous avons étudié au cours de cette thèse ces deux points clés. Nous nous sommes tout d’abord tournés vers une méthode de prédiction d’images EPID haute résolution basée sur le couplage de simulations Monte-Carlo (MC) et de la technique de débruitage DGPLM. Pour la mettre en œuvre, nous avons modélisé un accélérateur linéaire d’électrons à usage médical (linac) dans le code MC PENELOPE et optimisé les paramètres de sa source d’électrons primaires pour des calculs de dose dans l’eau. L’analyse d’un fichier d’espace des phases (PSF) de 71 Go stocké sous le cône égalisateur nous a ensuite permis de développer un modèle de sources virtuelles (MSV) représenté par des histogrammes corrélés (environ 200 Mo). Ce nouveau MSV, plus compact que le PSF, est tout aussi précis pour les calculs de dose dans l’eau si son maillage est déterminé selon une méthode adaptative. La modélisation du détecteur EPID dans PENELOPE suggère que les hypothèses faites sur les propriétés de la tâche focale du linac sont trop simplistes et doivent être reconsidérées. L’évaluation du MSV pour la prédiction d’images EPID haute résolution a quant à elle conduit à d’excellents résultats. Une fois la chaine de prédiction de l’image portale de référence validée, nous l’avons utilisée pour détecter des irrégularités dans les traitements de RCMI. Dans une étude préliminaire, nous avons volontairement introduit des erreurs de traitement dans le calcul d’images EPID (dérive du faisceau d’irradiation, modification de la morphologie ou de la position du patient). Le γ-index traditionnellement utilisé en routine s’est avéré moins performant que le χ-index pour les détecter. Une étude plus approfondie aura pour objet de déterminer des seuils de détection d’erreurs en fonction de leur nature et d’éprouver les performances d’autres tests
Advanced techniques used in radiotherapy for cancer treatment, such as Intensity-Modulated Radiation Therapy (IMRT), require extensive verification procedures to ensure the correct dose delivery. Electronic Portal Imaging Devices (EPIDs) are widely used for quality assurance in radiotherapy, and also for dosimetric verifications. For this latter application, the images obtained during the treatment session can be compared to a pre-calculated reference image in order to highlight dose delivery errors. The quality control performance depends (1) on the accuracy of the pre-calculated reference image (2) on the ability of the tool used to compare images to detect errors. These two key points were studied during this PhD work. We chose to use a Monte Carlo (MC)-based method developed in the laboratory and based on the DPGLM (Dirichlet process generalized linear model) denoising technique to predict high-resolution reference images. A model of the studied linear accelerator (linac Synergy, Elekta, Crawley, UK) was first developed using the PENELOPE MC codes, and then commissioned using measurements acquired in the Hôpital Nord of Marseille. A 71 Go phase space file (PSF) stored under the flattening filter was then analyzed to build a new kind of virtual source model based on correlated histograms (200 Mo). This new and compact VSM is as much accurate as the PSF to calculate dose distributions in water if histogram sampling is based on adaptive method. The associated EPID modelling in PENELOPE suggests that hypothesis about linac primary source were too simple and should be reconsidered. The use of the VSM to predict high-resolution portal images however led to excellent results. The VSM associated to the linac and EPID MC models were used to detect errors in IMRT treatment plans. A preliminary study was conducted introducing on purpose treatment errors in portal image calculations (primary source parameters, phantom position and morphology changes). The γ-index commonly used in clinical routine appears to be less effective than the χ-index. A future in-depth study will be dedicated to determine error detection threshold according to their nature and to evaluate other comparison test robustness. The developed portal image prediction method associated to robust analysis tools will then constitute an adapted way to assure treatment quality control
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Benmammar, Badr. "La gestion dynamique de la qualité de service dans les réseaux IP mobiles". Bordeaux 1, 2006. http://www.theses.fr/2006BOR13160.

Texto completo da fonte
Resumo:
Notre contribution dans le cadre de cette thèse est la proposition d'une nouvelle procédure de réservation de ressources à l'avance dans les réseaux IP mobiles et sans fil. Cette procédure fait appel à un nouvel objet nommé MSpec (Mobility Specification) qui représente lesfutures localisations du terminal mobile. Nous avons proposé un format pour cet objet ainsi qu'un profil de mobilité pour les utilisateurs mobiles qui inclut l'objet MSpec. Ce profil de mobilité découle de l'analyse du comportement de l'utilisateur durant une phase d'observation. Nous avons proposé, également, une extension de ce profil afin de pouvoir gérer le handover vertical (passage d'une technologie d'accès à une autre). Durant la phaase d'observation,l'utilisateur est nouveau et le sytme ne peut donc pas réserver de ressources à l'avance car il ne connaît pas le profil de mobilité de l'utilisateur, et par conséquent le contenu de l'objet MSpec. Sans réservation de ressources à l'avance, nous utilisons la technologie Agent afin d'améliorer la qualité de service demandée par l'utilisateur mobile. Le rôle des agents, dans cette phase, est d'adapter le handover horizontal (passage d'une cellule à une autre en utilisant la même technologie d'accès) et le hadover vertical aux besoins de qualité de service de l'utisateur.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Meiling, Luo. "Modélisation de la propagation radio en intérieur pour la prédiction des performances des systèmes radios". Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00931807.

Texto completo da fonte
Resumo:
Cette thèse a pour but de proposer toutes les avancées possibles dans l'utilisation du modèle de propagation Multi-Resolution Frequency-Domain ParFlow (MR-FDPF). Etant un modèle de propagation radio déterministe, le modèle MR-FDPF possède un haut niveau de précision, mais souffre des limitations communes à tous les modèles déterministes. Par exemple, un canal radio réel n'est pas déterministe, mais un processus aléatoire à cause par exemple des personnes ou objets mobiles, et ne peut donc être décrit fidèlement par un modèle purement déterministe. Dans cette thèse, un modèle semi-déterministe est proposé, basé sur le modèle MR-FDPF, qui introduit une part stochastique pour tenir compte des aspects aléatoires du canal radio réaliste. La partie déterministe du modèle est composée du path loss (atténuation d'espace), et la partie stochastique venant du shadow fading (masquage) et du small scale fading (évanouissement). De même, de nombreux simulateurs de propagation radio ne proposent que la prédiction de la puissance moyenne. Mais pour une simulation précise de la propagation radio il convient de prédire également des informations de fading permettant dès lors une prédiction précise du taux d'erreur binaire (BER) potentiel. Dans cette thèse, l'information de fading est déduite des simulations MR-FDPF et par la suite des valeurs réalistes de BER sont données. Enfin, ces données réalistes de BER permettent d'évaluer l'impact de schémas de modulation adaptatifs. Des résultats sont présentés dans trois configurations : systèmes SISO (mono-antenne à l'émission et à la réception), systèmes à diversité de type MRC, et systèmes large bande de type OFDM.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Portier, Eric. "Lien entre environnement de dépôt et diagenèse précoce : importance dans la prédiction des qualités réservoir". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS548.

Texto completo da fonte
Resumo:
La distribution des qualités réservoirs dans un champ ou un aquifère peut varier rapidement verticalement et latéralement, ce qui la rend difficile à prévoir. Ce travail se focalise donc sur les phénomènes diagenétiques précoces qui sont ensuite déterminants sur la diagenèse d’enfouissement. A travers les exemples profonds de sédiments glaciaires d'un champ gazier dans l'Ordovicien et de sédiments estuariens d’âge Permien d'un champ en Australie, l'objectif est de montrer l'influence de l'environnement de dépôts sur cette diagenèse précoce et de montrer le rôle essentiel joué par les remaniements sédimentaires dans la prédiction des qualités réservoir. En particulier, les remaniements étudiés sont à l’origine de l’incorporation d’argiles au sein du sédiment qui peuvent alors former des enrobages de grains ou du tapissage de pores. Selon la nature des argiles, que ce soit de l’illite ou de la chlorite ferreuse, l’évolution diagenétique ira soit vers une destruction des qualités réservoir, soit vers une préservation à grande profondeur. Les phénomènes à l’origine de ces remaniements sont, soit associés à la redistribution des argiles par élutriation, conséquence des fortes pressions du fluide interstitiel au sein du sédiment en environnement glaciaire, soit associés au remaniement permanent des sables par les courants tidaux, la floculation des argiles et à leur agglomération aux grains détritique par des fragments de biofilms
Reservoir quality distribution in subsurface, within an aquifer, storage or a hydrocarbon bearing reservoir, is largely variable and hence, difficult to predict. This study focuses on the early diagenetic processes, which are considered as key in the next steps of the diagenesis of deeply buried reservoir. Based on the examples of sandstones deposited in glacial setting during Ordovician of a gas field in Algeria and tidal sandstones from a Permian formation in Australia, the objective is to show the role and control exerted by the depositional environment on early diagenesis, and especially the major role of sediment reworking to predict reservoir quality distribution. The studied reworking processes are responsible of clay incorporation into sand deposits, as clay coats around detrital gains or as pore linings. The nature of clay is then determinant in the diagenetic processes, as these coatings may enhance chemical compaction if illitic in nature, or reversely, may inhibit cementation and help preserving reservoir quality if they are made of ferrous chlorite. These reworkings are associated to fluid overpressure within the sediment in glacial settings, whilst they are associated to the permanent reworking of sands by tidal currents, enabling the agglomeration of clay flocs to detrital grains with biofilm elements acting as natural glue
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Blazy, Vincent. "Incidences des conditions opératoires sur la qualité des composts, les émissions gazeuses et les odeurs en compostage sous aération forcée : corrélation entre odeur et composition des émissions". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S050/document.

Texto completo da fonte
Resumo:
La pérennité du compostage est cautionnée à une meilleure maîtrise de la qualité des composts ainsi que des émissions gazeuses. Ces deux critères dépendent en partie des conditions de compostage. Néanmoins, le contrôle des émissions gazeuses et des odeurs ne peut se circonscrire à une seule stratégie préventive. L'identification des composés responsables de l'odeur apparaît comme un enjeu permettant d'augmenter l'efficacité des solutions curatives. Cette thèse a eu pour double objectif d'évaluer l'influence des déterminants des procédés de compostage par aération forcée sur la qualité des composts, les émissions gazeuses et les odeurs en compostage et stockage ainsi que d'investiguer les corrélations entre composition chimique (CC) et concentration d'odeur (CO)des gaz émis. Le déchet et le structurant utilisés ont été des boues d'abattoir de porcs et des plaquettes de bois. L'influence des conditions opératoires a été évaluée en réacteur de compostage au regard des critères que sont la stabilisation, l'hygiènisation, le séchage et la conservation de l'azote. Un taux d'aération intermédiaire, un ratio structurant/déchet (S/D) >1 et une granulométrie >10mm semblent être les conditions répondant au mieux aux attentes d'un traitement par compostage. L'étude de l'influence des conditions sur les composés gazeux suspectés les plus contributrices des odeurs a conduit à une caractérisation exhaustive des émissions d'ammoniac, d'hydrogène sulfuré, des mercaptans par piégeage chimique et des COV par TD-GC-MS. L'identification des composés potentiellement contributeurs de l'odeur s'est basée sur le calcul d'unité d'odeur (UO) de chacun des composés i.e. le rapport de leur concentration chimique sur leur seuil olfactif, à leur pic d'émission. Les conditions opératoires générant le moins d'émissions sont un faible taux d'aération, un ratio S/D >1 et une granulométrie >10mm. Le potentiel des conditions opératoire à diminuer les émissions de composés odorants est toutefois limité. Les travaux venant d'être décrits ont été complétés d'une part par des mesures olfactométriques des émissions et leur corrélation à leur CC et d'autre part par la mise en œuvre de simulations de stockage en vue de comparer leurs émissions et odeurs à celles du compostage. Ces caractérisations ont montré que les pics d'odeurs en compostage sont 50 fois supérieurs à ceux du stockage. Deux types de corrélations entre la CC et la CO des gaz issus du compostage et du stockage ont été investiguées. Le premier type présume que la CO correspond à la somme des UO des composés du mélange. Le second suppose que la CO du mélange corresponde à l'UO la plus élevée (UOMAX) parmi l'ensemble des composés du mélange. Une analyse qualitative et quantitative des types de corrélations testés a indiqué qu'UOMAX est plus proche de la CO mesurée. Seuls trois composés, l'hydrogène sulfuré, le méthanethiol et la triméthylamine rendent compte des odeurs mesurées
Compost sustainability requires a better control of its compost quality and its gaseous emissions. Both were influenced by composting conditions. Nevertheless, controlling gaseous emissions and their odour can’t be assumed by a single preventive approach. The identification of the compounds involved in odour is also a way to improve the efficiency of curatives solutions. This thesis has been the dual objectives to assess the influence of the principal process conditions for the forced aeration composting on compost quality, gaseous emissions and odours during composting and storage, as well as find out a correlation between the chemical composition (CC) and the odour concentration (OC) of the emissions. The waste and the bulking agent used were pig slaughterhouse sludge and wood chips. The influence of the composting process conditions was studied on stabilization, disinfection, drying and nitrogen conservation during composting in pilot reactors. An intermediate rate, a bulking agent/ waste (BA/W) ratio >1 and a particle size >10mm seemed to be the optimal conditions which satisfy composting treatment expectations. The study of the composting process influence on the gaseous compounds supposed as main potential odour contributors led to an gases exhaustive characterizations, including: ammonia, hydrogen sulphide and mercaptans were quantified by chemical traps while TD-GC-MS was used for VOC. Compounds were screened as main odour contributor based on the compute of their odour unit (OU) of each compounds i.e. dividing their chemical concentration by their odour threshold, at their events of peak emission. The composting process conditions which reduced the emissions were, a low aeration rate, a high BA/W ratio and a particle size > 10mm. Composting process conditions had a limited impact on reducing emissions of odorous compounds. Further works were performed for establish a more accurate odour emission evaluation. On a first hand, olfactometric measurements were carried out in order to be correlated with their CC. On a second hand, experiments were designed to simulate storage with a view to compare their emissions and their odours with that in composting. These characterizations showed that the peaks of the odour emissions were found 50 folds higher during composting than during storage. Two types of correlations were investigated between the CC and the OC of gas samples from composting and storage. The first one assumed that, the OC of gas sample was equal to the sum of the OU of every odorous compound. The second one consisted to consider the OC was equal to the highest OU (OUMAX) of the most odorant compound in the sample. Qualitative and quantitative analyses were tested for the both correlation types, indicating that OUMAX is the expression which can provide the most accurate prediction of OC. Only three main odorous compounds were identified: trimethylamine, hydrogen sulphide and methanethiol
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Idir, Mohamed Yacine. "Analyse et développement de modèles statistiques pour l'estimation et la prédiction spatiale et temporelle de la pollution atmosphérique à partir de données issues de capteurs mobiles". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG107.

Texto completo da fonte
Resumo:
La pollution atmosphérique urbaine, fléau mondial causant des millions de décès par an, rend les cartographies précises de ce phénomène non seulement pertinente mais vitale pour la santé publique.Actuellement, la surveillance de la qualité de l'air est assurée par des stations fixes de surveillance de la qualité de l'air. Ces stations de référence fournissent une mesure très précise de la qualité de l'air au prix d'une couverture spatiale limitée.L'idée d'utiliser de nouveaux capteurs à faible coût développés à partir de récentes avancées technologiques, plus petits, intégrant un système de positionnement global (GPS) a rapidement émergée. Les scientifiques disposent ainsi d'outils supplémentaires pour affiner les cartes spatio-temporelles de la pollution atmosphérique et créer de nouveaux ensembles de données fournissant des informations sur la qualité de l'air qui n'étaient pas disponibles auparavant.La génération de cartographies précises de la qualité de l'air à l'aide de ces capteurs bas coût présente plusieurs défis majeurs. Ces défis sont principalement liés à la nature du phénomène étudié, à la précision et au volume des données.Compte tenu de ces difficultés, il est essentiel de savoir comment combiner toutes ces sources de données floues pour obtenir une image claire de la pollution urbaine.C'est dans ce contexte que s'inscrit cette thèse dont le but est l'analyse et le développement de modèles statistiques qui exploitent les données acquises par des capteurs mobiles bas coût. Elle contribue à l'objectif de fournir des estimations et des prévisions spatiales et temporelles plus précises de la pollution de l'air urbain, en combinant modèles mathématiques et avancées technologiques
Urban air pollution, a global health crisis causing millions of deaths every year, makes accurate mapping of this phenomenon not only relevant, but vital to public health.Currently, air quality is measured by fixed air quality monitoring stations. These reference stations provide a highly accurate measure of air quality, at the cost of limited spatial coverage.The idea of using new low-cost sensors developed from recent technological advances, smaller in size and incorporating a global positioning system (GPS), quickly emerged. This gives scientists additional tools to refine spatio-temporal maps of air pollution and create new datasets providing information on air quality that was previously unavailable.Generating precise air quality maps using these low-cost sensors presents several major challenges. These challenges are mainly related to the nature of the phenomenon being studied, and to the accuracy and volume of the data.Given these difficulties, it is important to know how to combine all these fuzzy data sources to obtain a clear picture of urban pollution.The aim of this thesis is to analyze and develop statistical models that exploit data acquired by low-cost mobile sensors. It contributes to the objective of providing more accurate spatial and temporal estimates and forecasts of urban air pollution, by combining mathematical models and technological advances
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Zhang, Guorong. "Étude et maîtrise de la qualité d'eau de la ressource à la distribution à Macao". Paris 12, 1992. http://www.theses.fr/1992PA120056.

Texto completo da fonte
Resumo:
Dans le cadre de la maitrise de la qualite de l'eau distribuee a macao, nous avons realise une etude complete portant sur la ressource, le traitement et la distribution. La qualite d'eau a la ressource est fortement influencee par l'eau de mer pendant la saison seche. Une bonne gestion par le stockage dans des reservoirs permet de maintenir une qualite constante de l'eau brute; de plus, la qualite de l'eau est globalement amelioree par ce stockage. Les gouts et odeurs sont le probleme principal dans les eaux de macao. Une approche analytique et statistique a permis de mettre en evidence des correlations entre des descripteurs organoleptiques et des composes organiques. A l'echelle pilote, un traitement d'ozonation suivi d'une filtration sur cag permet d'ameliorer la qualite organoleptique. A macao, la forte concentration en chlore utilisee en desinfection finale peut masquer certains gouts present dans l'eau. Cette hypothese a ete confirmee par des experiences. Afin de maitriser la qualite de l'eau distribuee, il est important de gerer les residuels de chlore dans le reseau. La prediction des residuels de chlore simulee par le logiciel piccolo-qualite concordent bien avec les analyses effectuees sur le reseau de macao. Ce logiciel constitue donc un outil efficace pour la modelisation et la gestion des concentrations en chlore residuel en chaque point du reseau
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Rakotonjanahary, Philémon. "La quantité d'informations contenues dans les rapports financiers, une étude expérimentale de ses effets sur la qualité de la prédiction de défaillance financière". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0035/NQ65343.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Li, Jing. "Méthodes pour l’évaluation et la prédiction de la qualité d’expérience, la préférence et l’inconfort visuel dans les applications multimedia : focus sur la TV 3D stéréoscopique". Nantes, 2013. http://www.theses.fr/2013NANT2043.

Texto completo da fonte
Resumo:
La technologie multimédia vise à améliorer l’expérience visuelle des spectateurs, notamment sur le plan de l’immersion. Les développements récents de la TV HD, TV 3D, et TV Ultra HD s’inscrivent dans cette logique. La qualité d’expérience (QoE) multimédia implique plusieurs dimensions perceptuelles. Dans le cas particulier de la TV 3D stéréoscopique, trois dimensions primaires ont été identifiées dans la littérature: qualité d’image, qualité de la profondeur et confort visuel. Dans cette thèse, deux questions fondamentales sur la QoE sont étudiés. L’une a pour objet “comment évaluer subjectivement le caractère multidimensionnel de la QoE”. L’autre s’intéresse à une dimension particuliére de QoE, “la mesure de l’inconfort et sa prédiction?”. Dans la première partie, les difficultés de l’évaluation subjective de la QoE sont introduites, les mérites de méthodes de type “Comparaison par paire” (Paired Comparison en anglais) sont analysés. Compte tenu des inconvénients de la méthode de Comparaison par paires, un nouveau formalisme basé sur un ensemble de comparaisons par paires optimisées, est proposé. Celui-ci est évalué au travers de différentes expériences subjectives. Les résultats des tests confirment l’efficacité et la robustesse de ce formalisme. Un exemple d’application dans le cas de l’étude de l’évaluation des facteurs influençant la QoE est ensuite présenté. Dans la seconde partie, l’influence du mouvement tri-dimensionnel (3D) sur l’inconfort visuel est étudié. Un modèle objectif de l’inconfort visuel est proposé. Pour évaluer ce modèle, une expérience subjective de comparaison par paires a été conduite. Ce modèle de prédiction conduit à des corrélations élevées avec les données subjectives. Enfin, une étude sur des mesures physiologiques tentant de relier inconfort visuel et fréquence de clignements des yeux présentée
Multimedia technology is aiming to improve people’s viewing experience, seeking for better immersiveness and naturalness. The development of HDTV, 3DTV, and Ultra HDTV are recent illustrative examples of this trend. The Quality of Experience (QoE) in multimedia encompass multiple perceptual dimensions. For instance, in 3DTV, three primary dimensions have been identified in literature: image quality, depth quality and visual comfort. In this thesis, focusing on the 3DTV, two basic questions about QoE are studied. One is “how to subjectively assess QoE taking care of its multidimensional aspect?”. The other is dedicated to one particular dimension, i. E. , “what would induce visual discomfort and how to predict it?”. In the first part, the challenges of the subjective assessment on QoE are introduced, and a possible solution called “Paired Comparison” is analyzed. To overcome drawbacks of Paired Comparison method, a new formalism based on a set of optimized paired comparison designs is proposed and evaluated by different subjective experiments. The test results verified efficiency and robustness of this new formalism. An application is the described focusing on the evaluation of the influence factor on 3D QoE. In the second part, the influence of 3D motion on visual discomfort is studied. An objective visual discomfort model is proposed. The model showed high correlation with the subjective data obtained through various experimental conditions. Finally, a physiological study on the relationship between visual discomfort and eye blinking rate is presented
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Rabeux, Vincent. "Évaluation de la qualité des documents anciens numérisés". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00858290.

Texto completo da fonte
Resumo:
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l'évaluation de la qualité d'images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s'appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d'algorithmes de traitement et d'analyse d'images de documents. Les descripteurs sont définis en analysant l'influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l'aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d'un processus automatique de sélection de l'algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l'importance du défaut de transparence (diffusion de l'encre du recto sur le verso d'un document). Ce travail sur la prédiction des performances d'algorithmes est aussi l'occasion d'aborder les problèmes scientifiques liés à la création de vérités-terrains et d'évaluation de performances.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Santi, Nina. "Prédiction des besoins pour la gestion de serveurs mobiles en périphérie". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Texto completo da fonte
Resumo:
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Zahid, Abderrakib. "Mécanismes cellulaires et moléculaires régissant le métabolisme des semences de céréales : rôle du réseau rédoxines-système antioxydant dans la prédiction de la qualité germinative". Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0130/document.

Texto completo da fonte
Resumo:
Une meilleure compréhension de la physiologie de la semence des céréales constitue certainement un moyen pour améliorer et développer de nouvelles variétés capables de correspondre aux besoins économiques et écologiques du moment. Les rédoxines constituent des marqueurs intéressants pour appréhender la qualité technologique et germinative du grain de blé en particulier. Le criblage des banques de données a permis d’isoler des isoformes de ces rédoxines. Cette étude a confirmé l’implication des thiorédoxines dans la réduction des protéines de réserve du blé et de maïs. Elle a permis de mettre en évidence un autre rôle de certains isoformes de thiorédoxines h dans la formation de polymères de hauts poids moléculaires. L'inhibition de l’expression de gènes par interférence ADN montre que les thiorédoxines et les glutarédoxines sont impliquées dans la protection contre le stress oxydatif chez le blé. De même, l'application d’un stress biotique simulé par la laminarine a permis de discriminer l'implication de différents marqueurs du stress, et de montrer en particulier que la 1-Cys-Prx peut être considérée comme un indicateur de l'état redox du grain pendant la germination. La mise en place d’une méthode simple et efficace de transformation des céréales via Agrobacterium, constitue un moyen pour comprendre davantage le rôle de ces rédoxines dans la gestion des stress, et les éventuelles conséquences sur la qualité technologique du grain
A better understanding of the physiology of seed cereal constitutes certainly a means to improve and develop new varieties capable of corresponding to the actual economic and ecological needs. Redoxins are interesting markers to apprehend the technological and germinative quality of wheat seed in particular. The screening of data banks allowed isolating isoforms of these redoxins. This study confirmed the implication of thioredoxins in the reduction of storage proteins in wheat and corn seeds. It allowed to bring to light another role of some thioredoxins h isoforms in the formation of high molecular weights polymers. The inhibition of the expression of genes by DNA interference shows that thioredoxins and glutaredoxins are involved in the protection against oxidative stress in wheat. Also, the application of a biotic stress simulated by laminarin allowed to discriminate the implication of various stress markers, and to highlight in particular that the 1-Cys-Prx can be considered as an indicator of the redox state of the grain during germination and seedling. The implementation of a simple and effective method of transformation of cereal via Agrobacterium constitutes a means to understand more on the role of these redoxins in the management of the stress, and the possible consequences on the technological quality of the seed
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Thériault, Elodie. "Contribution environnementale de la qualité de la relation enseignant-élève à la réussite scolaire au primaire : une étude de différence de jumeaux monozygotes". Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/70394.

Texto completo da fonte
Resumo:
Le but de cette étude était d’examiner le rôle de la qualité de la relation enseignant-élève dans la prédiction de la réussite scolaire et de sa trajectoire à la fin du primaire, tout en contrôlant pour les possibles influences génétiques et environnementales partagées à l’aide de la méthode de différences de jumeaux monozygotes (MZ). L’échantillon comportait 377 jumeaux MZ provenant de 195 familles. La réussite scolaire et la qualité de la relation enseignant-élève, qui comprenait les composantes de proximité et de conflits, ont été évaluées en quatrième et en sixième années. La réussite scolaire et la qualité de la relation enseignant-élève en troisième année ainsi que l’agressivité physique et l’inattention en troisième année et le sexe ont été inclus comme variables de contrôle. Les résultats suggèrent que la différence intra-paire dans les conflits dans la relation enseignant-élève en quatrième année permet de prédire la différence intra-paire dans la réussite scolaire en sixième année. De plus, les résultats permettent de soulever que les conflits dans la relation enseignant-élève ainsi que la réussite scolaire sont fortement influencés par des facteurs génétiques et environnementaux partagés par les jumeaux, mais que l’association entre les conflits et la réussite scolaire va au-delà de ces facteurs. Les mécanismes pouvant contribuer aux associations entre la réussite scolaire et la qualité de la relation enseignant-élève sont discutés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Mohanna, Hachem. "Étude du mouvement des réseaux mobiles ad-hoc, estimation et prédiction de la qualité de lien par une méthode d'extrapolation historique utilisant les "Time Series"". Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/513/1/MOHANNA_Hachem.pdf.

Texto completo da fonte
Resumo:
Les MANETs (Mobile Ad hoc NETworks) ont été au coeur d'un nombre croissant de travaux de recherche et de publications au cours de ces dernières années. Bien que la majorité de ces études traitent d'un aspect particulier ou à une couche donnée des systèmes ad-hoc, de plus en plus de travaux abordent les problématiques avec une vision globale, allant de plus en plus vers une approche cross-layer. Un des principaux problèmes dans un MANET est la variation constante de la qualité des liens entre les noeuds, essentiellement due à leurs mouvements. De nombreuses approches basées sur la prédiction de la qualité de lien, sur la prédiction du mouvement, ou du moment de rupture ont été proposées. Nous proposons un modèle, Time Series Received Power Prediction (TSRPP), simple, efficace et basé sur des éléments historiques. Il permet de prédire la variation de la puissance reçue à partir des valeurs passées à travers l'utilisation des outils de time series basés sur le exponential smoothing. L'idée est d'offrir un outil qui fournit des éléments d'information sur l'état des liens à horizon court, deux secondes. Une liberté totale étant laissée aux utilisateurs de notre outil quand aux changements à apporter dans les protocoles de la couche MAC, du routage, de construction et maintenance de clusters et de backbones pour prendre en compte la prédiction dans leur fonctionnement. Il ne fait nul doute que, pour le moment, les outils de simulation sont le moyen privilégié pour tester toute proposition ou éprouver un protocole. De ce fait et au vu de l'impact considérable de la mobilité sur les performances des MANETs, une modélisation réaliste du mouvement prend toute son importance. Pour élaborer et tester notre modèle de prédiction dans de bonnes conditions de réalisme, nous proposons deux modèles de mobilité, Temporal Dependency with Pause time Dependency mobility model (TDPD)et Temporal Dependency and Movement Dependency mobility model(TDMD), qui se veulent aussi simples d'utilisation que Random Waypoint tout en fournissant des traces plus réalistes. De même et dans le but de modéliser de façon assez fine la puissance du signal reçu par le récepteur, nous utilisons un modèle de propagation répandu dans la littérature qui prend aussi bien en compte les phénomènes d'atténuation à tendance longue que les variations aléatoires plus rapides. À travers des simulations sous Matlab, nous montrons les caractéristiques de nos modèles de mouvements ainsi que la qualité des résultats de notre modèle de prédiction. Nos résultats tendent à confirmer le proverbe «l'histoire est ce qui empêche l'avenir d'être n'importe quoi».
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Li, Jing. "Méthodes pour l'évaluation et la prédiction de la Qualité d'expérience, la préférence et l'inconfort visuel dans les applications multimédia. Focus sur la TV 3D stéréoscopique". Phd thesis, Université de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-01061107.

Texto completo da fonte
Resumo:
La technologie multimédia vise à améliorer l'expérience visuelle des spectateurs, notamment sur le plan de l'immersion. Les développements récents de la TV HD, TV 3D, et TV Ultra HD s'inscrivent dans cette logique. La qualité d'expérience (QoE) multimédia implique plusieurs dimensions perceptuelles. Dans le cas particulier de la TV 3D stéréoscopique, trois dimensions primaires ont été identifiées dans la littérature: qualité d'image, qualité de la profondeur et confort visuel. Dans cette thèse, deux questions fondamentales sur la QoE sont étudiés. L'une a pour objet "comment évaluer subjectivement le caractère multidimensionnel de la QoE". L'autre s'intéresse à une dimension particuliére de QoE, "la mesure de l'inconfort et sa prédiction?". Dans la première partie, les difficultés de l'évaluation subjective de la QoE sont introduites, les mérites de méthodes de type "Comparaison par paire" (Paired Comparison en anglais) sont analysés. Compte tenu des inconvénients de la méthode de Comparaison par paires, un nouveau formalisme basé sur un ensemble de comparaisons par paires optimisées, est proposé. Celui-ci est évalué au travers de différentes expériences subjectives. Les résultats des tests confirment l'efficacité et la robustesse de ce formalisme. Un exemple d'application dans le cas de l'étude de l'évaluation des facteurs influençant la QoE est ensuite présenté. Dans la seconde partie, l'influence du mouvement tri-dimensionnel (3D) sur l'inconfort visuel est étudié. Un modèle objectif de l'inconfort visuel est proposé. Pour évaluer ce modèle, une expérience subjective de comparaison par paires a été conduite. Ce modèle de prédiction conduit à des corrélations élevées avec les données subjectives. Enfin, une étude sur des mesures physiologiques tentant de relier inconfort visuel et fréquence de clignements des yeux présentée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Hora, Diego Neves da. "Predicting home Wi-Fi QoE from passive measurements on commodity access points". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066599.

Texto completo da fonte
Resumo:
Une mauvaise qualité Wi-Fi peut perturber l'expérience des utilisateurs domestiques sur Internet, ou la qualité de l'expérience (QoE). Détecter quand le Wi-Fi dégrade la QoE des utilisateurs est précieux pour les fournisseurs d’accès internet (FAI), surtout que les utilisateurs tiennent souvent pour responsable leur FAI lorsque leur QoE se dégrade. Pourtant, les FAI ont peu de visibilité au sein de la maison pour aider les utilisateurs. Cette thèse conçoit et évalue des techniques de surveillance passive de la qualité Wi-Fi sur les points d'accès de base (APs) et prédit quand la qualité du Wi-Fi dégrade la QoE de l'application Internet. Nous concevons et évaluons une méthode qui estime la capacité de liaison Wi-Fi. Nous concevons et évaluons prédicteurs de l'effet de la qualité Wi-Fi sur la QoE de quatre applications populaires: la navigation sur le Web, YouTube, la communication audio et vidéo en temps réel. Nous concevons une méthode pour identifier les événements qui traduisent une mauvaise QoE pour identifier les cas où les prédicteurs QoE estiment que toutes les applications visées fonctionnent mal. Nous appliquons nos prédicteurs aux métriques Wi-Fi collectées sur une semaine de surveillance de 832 points d’accès de clients d'un grand FAI résidentiel. Nos résultats montrent que la QoE est bonne sur la grande majorité des échantillons, mais nous trouvons encore 9% des échantillons avec une mauvaise QoE. Pire, environ 10% des stations ont plus de 25% d'échantillons dont la QoE est médiocre. Dans certains cas, nous estimons que la qualité Wi-Fi provoque une QoE médiocre pendant de nombreuses heures, bien que dans la plupart des cas ces événements soient courts
Poor Wi-Fi quality can disrupt home users' internet experience, or the Quality of Experience (QoE). Detecting when Wi-Fi degrades QoE is valuable for residential Internet Service Providers (ISPs) as home users often hold the ISP responsible whenever QoE degrades. Yet, ISPs have little visibility within the home to assist users. This thesis designs and evaluates techniques to passively monitor Wi-Fi quality on commodity access points (APs) and predict when Wi-Fi quality degrades internet application QoE. Our first contribution is the design and evaluation of a method that estimates Wi-Fi link capacity. We extend previous models, suited for 802.11a/b/g networks, to work on 802.11n networks using passive measurements. Our second contribution is the design and evaluation of predictors of the effect of Wi-Fi quality on QoE of four popular applications: web browsing, YouTube, audio and video real time communication. Our third contribution is the design of a method to identify poor QoE events. We use K-means clustering to identify instances where the QoE predictors estimate that all studied applications perform poorly. Then, we classify poor QoE events as short, intermittent, and consistent poor QoE events. Finally, our fourth contribution is to apply our predictors to Wi-Fi metrics collected over one week from 832 APs of customers of a large residential ISP. Our results show that QoE is good on the vast majority of samples of the deployment, still we find 9% of poor QoE samples. Worse, approximately 10% of stations have more than 25% poor QoE samples. In some cases, we estimate that Wi-Fi quality causes poor QoE for many hours, though in most cases poor QoE events are short
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Badr, Benmammar. "La gestion dynamique de la qualité de service dans les réseaux IP mobiles". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2006. http://tel.archives-ouvertes.fr/tel-00657640.

Texto completo da fonte
Resumo:
Notre contribution dans le cadre de cette thèse est la proposition d'une nouvelle procédure de réservation de ressources à l'avance dans les réseaux IP mobiles et sans fil. Cette procédure fait appel à un nouvel objet nommé MSpec (Mobility Specification) qui représente les futures localisations du terminal mobile. Nous avons proposé un format pour cet objet ainsi qu'un profil de mobilité pour les utilisateurs mobiles qui inclut l'objet MSpec. Ce profil de mobilité découle de l'analyse du comportement de l'utilisateur durant une phase d'observation. Nous avons proposé, également, une extension de ce profil afin de pouvoir gérer le handover vertical (passage d'une technologie d'accès à une autre). Durant la phase d'observation, l'utilisateur est nouveau et le système ne peut donc pas réserver de ressources à l'avance car il ne connaît pas le profil de mobilité de l'utilisateur, et par conséquent le contenu de l'objet MSpec. Sans réservation de ressources à l'avance, nous utilisons la technologie Agent afin d'améliorer la qualité de service demandée par l'utilisateur mobile. Le rôle des agents, dans cette phase, est d'adapter le handover horizontal (passage d'une cellule à une autre en utilisant la même technologie d'accès) et le handover vertical aux besoins de qualité de service de l'utilisateur.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Le, Corroller Thomas. "Altérations de la structure osseuse de l'extrémité proximale du fémur : Analyse en imagerie médicale, étude biomécanique, et application à la prédiction du risque fracturaire". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4010.

Texto completo da fonte
Resumo:
La fracture ostéoporotique du col fémoral et la coxarthrose constituent aujourd'hui deux enjeux majeurs de santé publique chez les sujets âgés. L'ostéoporose est définie par une diminution de la masse osseuse et une altération de la structure osseuse. La coxarthrose d'autre part associe la perte progressive du cartilage d'encroûtement articulaire, une sclérose osseuse sous-chondrale, des géodes sous-chondrales, et des ostéophytes marginaux. Bien qu'une masse osseuse élevée semble prédisposer à l'arthrose, les relations métaboliques et biomécaniques entre ostéoporose et coxarthrose sont complexes. L'évaluation de l'architecture osseuse de l'extrémité proximale du fémur est un des enjeux majeurs de recherche actuels visant à la caractérisation des modifications du tissu osseux liées au vieillissement. Notre travail de thèse s'est inscrit dans un projet pluridisciplinaire de recherche sur les altérations de la structure osseuse de l'extrémité proximale du fémur, reposant sur une analyse en imagerie médicale et une étude biomécanique de cette région anatomique fondamentale
Fracture of the proximal femur and hip osteoarthritis are nowadays a major public health problem in elderly persons. The current definition of osteoporosis is a low bone mass associated with microarchitecture deterioration. On the other hand, osteoarthritis corresponds to progressive articular cartilage loss, subchondral bone sclerosis, subchondral bone cysts, and marginal osteophytes. Although a higher bone mass may increase the risk of osteoarthritis, osteoporosis and hip osteoarthritis present a complex metabolic and biomechanical relationship. The proximal femur architectural evaluation and characterization of age-related osseous alterations are currently one of the main challenges in bone and mineral research. Our work was based on a multidisciplinary project which aimed at evaluating the age-related structural deterioration of the proximal femur using medical imaging and biomechanical testing in this crucial anatomical region
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Ben, Cheikh Ahlam. "Gestion de la mobilité dans les réseaux femtocells". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066656.

Texto completo da fonte
Resumo:
Les femtocellules sont déployées par des FAPs dans la couverture des macrocellules afin d'offrir aux utilisateurs un service continu aussi bien à l'intérieur qu'à l'extérieur.Elles sont caractérisées par une courte portée,faible puissance et ne peuvent couvrir qu'un nombre limité des utilisateurs.Ces caractéristiques rendent la gestion de la mobilité l'un des plus importants défis à résoudre.Dans cette thèse,nous proposons des nouveaux algorithmes de handover.En premier lieu,nous considérons la direction du mobile comme un paramètre clé pour la prise de décision de Handover.Nous proposons un algorithme de handover nommé OHMF basé sur l'optimisation de la liste de FAPs candidats tout en considérant la qualité de signal ainsi que la direction de mouvement de mobile.Ensuite,nous proposons un processus de prédiction de direction basé sur la régression linéaire.L'idée est de prédire la position future du mobile tout en tenant compte des positions actuelle et précédente.Cet algorithme est intitulé OHDP. En deuxième lieu,nous nous intéressons au problème de prédiction de mobilité pour être plus rigoureux lors de prise de décision de handover.Pour cela,nous utilisons les chaînes de markov cachées comme prédicteur du prochain FAP et nous proposons un algorithme de handover nommé OHMP. Afin d'adapter notre solution à toutes les contraintes du réseau femtocellules,nous proposons un algorithme de handover intitulé OHMP-CAC qui intègre un CAC approprié au réseau étudié et une différenciation de service avec et sans contraintes de QoS.Des études de performances basées sur des simulations et des traces de mobilité réelles ont été réalisées pour évaluer l'efficacité de nos propositions
Femtocell network are deployed in the macrocell’s coverage to provide extended services with better performances. Femtocells have a short-range and low power transmissions.Each FAP supports a few number of connected users.Owing to these inherent features, one of the most challenging issues for the femtocellular network deployment remains the mobility management.In this thesis, we propose new handovers algorithms adapted to the characteristics of femtocells network.As a first part,we consider the direction of mobile user as a key parameter for the handover decision.To do so,we propose a new handover algorithm called OHMF. Its main purpose is the optimization of the list of FAPs candidates based on signal quality as well as the mobile direction to better choose the FAP target.After that, we propose an algorithm called OHDP based on the direction prediction using the linear regression.The idea behind this is to predict the future position of mobile based on its current and previous position. As a second part, we focus on mobility prediction problem to make an efficient handover decision.We propose a novel handoff decision algorithm called OHMP that uses HMM as a predictor to accurately estimate the next FAP that a mobile UE would visit,given its current and historical movement information.In order to adapt our solution to the characteristics of femtocells network,we propose a handover algorithm called OHMP-CAC based on HMM tool as a predictor, a proposed CAC and the availability of resources of the predicted FAP,SINR and the traffic type.In order to assess the efficiency of our proposals,all underlying algorithms are evaluated through simulations and real mobility traces
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Ben, Cheikh Ahlam. "Gestion de la mobilité dans les réseaux femtocells". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066656.

Texto completo da fonte
Resumo:
Les femtocellules sont déployées par des FAPs dans la couverture des macrocellules afin d'offrir aux utilisateurs un service continu aussi bien à l'intérieur qu'à l'extérieur.Elles sont caractérisées par une courte portée,faible puissance et ne peuvent couvrir qu'un nombre limité des utilisateurs.Ces caractéristiques rendent la gestion de la mobilité l'un des plus importants défis à résoudre.Dans cette thèse,nous proposons des nouveaux algorithmes de handover.En premier lieu,nous considérons la direction du mobile comme un paramètre clé pour la prise de décision de Handover.Nous proposons un algorithme de handover nommé OHMF basé sur l'optimisation de la liste de FAPs candidats tout en considérant la qualité de signal ainsi que la direction de mouvement de mobile.Ensuite,nous proposons un processus de prédiction de direction basé sur la régression linéaire.L'idée est de prédire la position future du mobile tout en tenant compte des positions actuelle et précédente.Cet algorithme est intitulé OHDP. En deuxième lieu,nous nous intéressons au problème de prédiction de mobilité pour être plus rigoureux lors de prise de décision de handover.Pour cela,nous utilisons les chaînes de markov cachées comme prédicteur du prochain FAP et nous proposons un algorithme de handover nommé OHMP. Afin d'adapter notre solution à toutes les contraintes du réseau femtocellules,nous proposons un algorithme de handover intitulé OHMP-CAC qui intègre un CAC approprié au réseau étudié et une différenciation de service avec et sans contraintes de QoS.Des études de performances basées sur des simulations et des traces de mobilité réelles ont été réalisées pour évaluer l'efficacité de nos propositions
Femtocell network are deployed in the macrocell’s coverage to provide extended services with better performances. Femtocells have a short-range and low power transmissions.Each FAP supports a few number of connected users.Owing to these inherent features, one of the most challenging issues for the femtocellular network deployment remains the mobility management.In this thesis, we propose new handovers algorithms adapted to the characteristics of femtocells network.As a first part,we consider the direction of mobile user as a key parameter for the handover decision.To do so,we propose a new handover algorithm called OHMF. Its main purpose is the optimization of the list of FAPs candidates based on signal quality as well as the mobile direction to better choose the FAP target.After that, we propose an algorithm called OHDP based on the direction prediction using the linear regression.The idea behind this is to predict the future position of mobile based on its current and previous position. As a second part, we focus on mobility prediction problem to make an efficient handover decision.We propose a novel handoff decision algorithm called OHMP that uses HMM as a predictor to accurately estimate the next FAP that a mobile UE would visit,given its current and historical movement information.In order to adapt our solution to the characteristics of femtocells network,we propose a handover algorithm called OHMP-CAC based on HMM tool as a predictor, a proposed CAC and the availability of resources of the predicted FAP,SINR and the traffic type.In order to assess the efficiency of our proposals,all underlying algorithms are evaluated through simulations and real mobility traces
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Zhu, Qun Ying. "Modèles bayésiens et application à l'estimation des caractéristiques de produits finis et au contrôle de la qualité". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00529487.

Texto completo da fonte
Resumo:
Pour le contrôle des produits ou matériaux fabriqués en usines et suivant un processus continu, on cherche à réduire le coût et le volume des prélèvements et des mesures, sans accroître le risque statistique ou réduire la connaissance sur les lots à tester. Pour cela il est préférable d'adopter une approche bayésienne plutôt que classique. Nous étudions d'abord plusieurs modèles bayésiens paramétriques en précisant comment établir la distribution a priori du paramètre à partir d'informations provenant de la production et des contrôles antérieurs. Ensuite, nous appliquons ces techniques au cas du contrôle des boulons à haute résistance et nous faisons une comparaison entre elles. L'une d'elles s'avère bien adaptée à ce problème.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Rousseeuw, Kévin. "Modélisation de signaux temporels hautes fréquences multicapteurs à valeurs manquantes : Application à la prédiction des efflorescences phytoplanctoniques dans les rivières et les écosystèmes marins côtiers". Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0374/document.

Texto completo da fonte
Resumo:
La prise de conscience des problèmes d'environnement et des effets directs et indirects des activités humaines a conduit à renforcer la surveillance haute fréquence des écosystèmes marins par l'installation de stations de mesures multicapteurs autonomes. Les capteurs, installés dans des milieux hostiles, sont sujets à des périodes de calibration, d'entretien voire des pannes et sont donc susceptibles de générer des données bruitées, manquantes voire aberrantes qu'il est nécessaire de filtrer et compléter avant toute exploitation ultérieure. Dans ce contexte, l'objectif du travail est de concevoir un système numérique automatisé robuste capable de traiter de tel volume de données afin d’améliorer les connaissances sur la qualité des systèmes aquatiques, et plus particulièrement en considérant le déterminisme et la dynamique des efflorescences du phytoplancton. L'étape cruciale est le développement méthodologique de modèles de prédiction des efflorescences du phytoplancton permettant aux utilisateurs de disposer de protocoles adéquats. Nous proposons pour cela l'emploi du modèle de Markov caché hybridé pour la détection et la prédiction des états de l'environnement (caractérisation des phases clefs de la dynamique et des caractéristiques hydrologiques associées). L'originalité du travail est l'hybridation du modèle de Markov par un algorithme de classification spectrale permettant un apprentissage non supervisé conjoint de la structure, sa caractérisation et la dynamique associée. Cette approche a été appliquée sur trois bases de données réelles : la première issue de la station marine instrumentée MAREL Carnot (Ifremer) (2005-2009), la seconde d’un système de type Ferry Box mis en œuvre en Manche orientale en 2012 et la troisième d’une station de mesures fixe, installée le long de la rivière Deûle en 2009 (Agence de l’Eau Artois Picardie - AEAP). Le travail s’inscrit dans le cadre d’une collaboration étroite entre l'IFREMER, le LISIC/ULCO et l'AEAP afin de développer des systèmes optimisés pour l’étude de l’effet des activités anthropiques sur le fonctionnement des écosystèmes aquatiques et plus particulièrement dans le contexte des efflorescences de l’algue nuisible, Phaeocystis globosa
Because of the growing interest for environmental issues and to identify direct and indirect effects of anthropogenic activities on ecosystems, environmental monitoring programs have recourse more and more frequently to high resolution, autonomous and multi-sensor instrumented stations. These systems are implemented in harsh environment and there is a need to stop measurements for calibration, service purposes or just because of sensors failure. Consequently, data could be noisy, missing or out of range and required some pre-processing or filtering steps to complete and validate raw data before any further investigations. In this context, the objective of this work is to design an automatic numeric system able to manage such amount of data in order to further knowledge on water quality and more precisely with consideration about phytoplankton determinism and dynamics. Main phase is the methodological development of phytoplankton bloom forecasting models giving the opportunity to end-user to handle well-adapted protocols. We propose to use hybrid Hidden Markov Model to detect and forecast environment states (identification of the main phytoplankton bloom steps and associated hydrological conditions). The added-value of our approach is to hybrid our model with a spectral clustering algorithm. Thus all HMM parameters (states, characterisation and dynamics of these states) are built by unsupervised learning. This approach was applied on three data bases: first one from the marine instrumented station MAREL Carnot (Ifremer) (2005-2009), second one from a Ferry Box system implemented in the eastern English Channel en 2012 and third one from a freshwater fixed station in the river Deûle in 2009 (Artois Picardie Water Agency). These works fall within the scope of a collaboration between IFREMER, LISIC/ULCO and Artois Picardie Water Agency in order to develop optimised systems to study effects of anthropogenic activities on aquatic systems functioning in a regional context of massive blooms of the harmful algae, Phaeocystis globosa
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Fournel, Sébastien. "Combustion à la ferme de cultures énergétiques : influence de leurs propriétés physico-chimiques sur les émissions atmosphériques, prédiction de la composition des gaz et cadre de qualité de la biomasse agricole". Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6832.

Texto completo da fonte
Resumo:
Le monde agricole québécois a actuellement la volonté de mettre en place une filière biomasse pour la production de chaleur à la ferme. Toutefois, la législation sur la qualité de l’air du Québec ne permet pas de valoriser aisément des cultures énergétiques à cette fin. Dans la littérature, le manque de facteurs d’émission en lien avec la combustion de biomasses lignocellulosiques limite l’actualisation du règlement, plutôt contraignant dans le moment, pour répondre aux besoins du milieu. Par ailleurs, la variabilité des propriétés physico-chimiques des plantes agricoles rend le dossier encore plus complexe. Le présent projet visait donc à quantifier l’influence des caractéristiques (espèce, composition chimique, date de récolte, forme, etc.) des cultures dédiées ayant le meilleur potentiel de développement au Québec sur les émissions atmosphériques (particules et gaz) lors de la combustion à la ferme. Une revue critique de la littérature a d’abord ciblé, en plus du bois (référence), quatre biomasses agricoles d’intérêt : le saule à croissance rapide, le panic érigé, le miscanthus et l’alpiste roseau. Ces cultures pérennes ont ensuite été acquises de divers producteurs selon la forme du produit (copeaux, granules ou vrac) et sa date de récolte (automne ou printemps). Au total, 12 différentes biomasses ont été brûlées dans une chaudière multi-combustible de 29 kW au Laboratoire sur les énergies en agriculture durable (LEAD) de l’Institut de recherche et de développement en agroenvironnement (IRDA). Au cours de 36 essais expérimentaux (3 répétitions), les paramètres d’opération (masse du combustible, températures de la chambre, de l’effluent gazeux et de l’eau de l’échangeur de chaleur, débits des gaz et du fluide caloporteur, etc.) et les concentrations de 11 gaz (CO, CO[indice inférieur 2], CH[indice inférieur 4], N[indice inférieur 2]O, NO, NO[indice inférieur 2], NH[indice inférieur 3], SO[indice inférieur 2], HCl, H[indice inférieur 2]O et O[indice inférieur 2]) ont été mesurés en continu. Les matières particulaires ont aussi été échantillonnées pour chaque test de combustion à l’aide de la Méthode 5 de l’United States Environmental Protection Agency (USEPA). Au final, aucune des biomasses n’a respecté les valeurs limites de particules décrites par la règlementation environnementale québécoise avec le système de combustion utilisé. Des contraintes technologiques et la vaste gamme de biomasses sélectionnées ont compliqué l’ajustement des conditions optimales d’opération pour chaque combustible. Néanmoins, plusieurs tendances ont été soulevées. Le bois, étant donné ses faibles teneurs en éléments inorganiques, a produit moins de polluants que les plantes à vocation énergétique. Dans leur cas, leurs émissions particulaires et gazeuses ont généralement été proportionnelles à leurs contenus en azote, en soufre, en chlore, en métaux alcalins et en cendres. C’est ce qui explique que le lessivage causé par la fonte des neiges et subi par une culture récoltée au printemps ait entraîné une diminution importante des rejets atmosphériques. De plus, la granulation, qui permet en densifiant et en homogénéisant le produit de mieux contrôler le procédé, a engendré une baisse des composés issus d’une combustion incomplète. L’analyse de l’impact des propriétés physico-chimiques des cultures sur les émissions lors de la combustion a mené à l’établissement d’un cadre potentiel de certification de la qualité de la biomasse agricole. Un modèle de prédiction de la composition des gaz, basé sur la notion d’équilibre thermodynamique et la minimisation de l’énergie libre de Gibbs, a également été développé pour estimer rapidement les rejets de combustion de toute biomasse et ainsi faciliter son classement à l’intérieur du cadre proposé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Marçais, Jean. "Variabilités des temps de résidence de l’eau et du débit dans les rivières et les nappes phréatiques : implications sur la qualité de l’eau : inférence, modélisation et prédiction des temps de transit de l’eau dans les bassins versants". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1B025/document.

Texto completo da fonte
Resumo:
Le transport de contaminants, l’altération des roches ainsi que les grands cycles biogéochimiques sont contrôlés par les temps de séjour de l’eau. Ces temps de séjour représentent le temps de transit durant lequel l’eau « voyage » dans un bassin versant. Contraindre ces temps de transit est donc un enjeu essentiel pour quantifier l’impact de l’homme sur la qualité de l’eau en rivières et dans les aquifères et pour évaluer la résilience des écosystèmes aquatiques continentaux. Cependant, les rivières comme les nappes phréatiques sont constituées d’un mélange d’eau de différents âges (une distribution des temps de transit ou des temps de résidence) qui varie avec le temps, en fonction des aléas météorologiques et climatiques, rendant difficile leur caractérisation ainsi que leur prédiction. Dans cette thèse, nous inférons ces temps de résidence à l’aide de traceurs géochimiques et de modèles guidés par les données. Nous montrons comment cette connaissance permet de quantifier l’altération des roches cristallines. Nous développons ensuite un cadre original de modélisation à base physique, capable de représenter la variabilité saisonnière et interannuelle des débits et des temps de transit mesurés en rivière. Nous montrons comment le processus de battements de nappes et son interaction avec les couches perméables du sol mène à la génération d’un ruissellement qui explique les fluctuations saisonnières de qualité de l’eau en rivières, traduites par des mesures de silice dissoute. Enfin, nous esquissons un cadre général de représentation de la réactivité à l’échelle du versant capable de rendre compte des processus biogéochimiques. En effet, représenter la dégradation des éléments réactifs (oxygène, nitrates, carbone) permettra d’évaluer les mesures de réduction d’intrants agricoles, de prédire l’évolution long terme de ces solutés en rivières, et donc leur potentiel d’eutrophisation ainsi que d’évaluer des mesures pour réconcilier agriculture et environnement. Cette réactivité apparaît comme le dernier maillon manquant pour comprendre, mesurer et prédire, les impacts anthropiques sur la zone critique
Groundwater travel time controls contaminant transport, weathering processes and biogeochemical cycles. Groundwater travel time is a fundamental descriptor characterizing the transit time of water inside the catchment, from precipitation events to the streams. Quantifying these transit times is pivotal to predict the impact of anthropogenic pressure and assess freshwater ecosystems resilience. However, streamwater and groundwater are a mixture of water of different ages (the transit time and the residence time distribution), which vary according to climatic forcings. This makes difficult its characterization and prediction. Here we infer residence times with geochemical tracers and data-driven models. We show how this can be constrained by silicate weathering at the catchment scale. We then develop a novel process-based framework, which can model discharge and transit time seasonal and interannual variabilities. We identify water table fluctuations, its interaction with permeable soil layers and the resulting subsurface stormflow generation as a key process for seasonal water quality variations described by dissolved silica measurements. Finally, we draw a reactivity framework to represent biogeochemical processes. Indeed, evaluating reactive solute degradation is needed to assess the efficiency of reducing fertilizer loads, to predict the long term evolution of in stream solute concentrations and the eutrophication potential of freshwater bodies. Modeling the reactivity at the catchment scale is the missing link to understand, quantify and predict the effect of anthropogenic pressure on the critical zone
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Hora, Diego Neves da. "Predicting home Wi-Fi QoE from passive measurements on commodity access points". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066599/document.

Texto completo da fonte
Resumo:
Une mauvaise qualité Wi-Fi peut perturber l'expérience des utilisateurs domestiques sur Internet, ou la qualité de l'expérience (QoE). Détecter quand le Wi-Fi dégrade la QoE des utilisateurs est précieux pour les fournisseurs d’accès internet (FAI), surtout que les utilisateurs tiennent souvent pour responsable leur FAI lorsque leur QoE se dégrade. Pourtant, les FAI ont peu de visibilité au sein de la maison pour aider les utilisateurs. Cette thèse conçoit et évalue des techniques de surveillance passive de la qualité Wi-Fi sur les points d'accès de base (APs) et prédit quand la qualité du Wi-Fi dégrade la QoE de l'application Internet. Nous concevons et évaluons une méthode qui estime la capacité de liaison Wi-Fi. Nous concevons et évaluons prédicteurs de l'effet de la qualité Wi-Fi sur la QoE de quatre applications populaires: la navigation sur le Web, YouTube, la communication audio et vidéo en temps réel. Nous concevons une méthode pour identifier les événements qui traduisent une mauvaise QoE pour identifier les cas où les prédicteurs QoE estiment que toutes les applications visées fonctionnent mal. Nous appliquons nos prédicteurs aux métriques Wi-Fi collectées sur une semaine de surveillance de 832 points d’accès de clients d'un grand FAI résidentiel. Nos résultats montrent que la QoE est bonne sur la grande majorité des échantillons, mais nous trouvons encore 9% des échantillons avec une mauvaise QoE. Pire, environ 10% des stations ont plus de 25% d'échantillons dont la QoE est médiocre. Dans certains cas, nous estimons que la qualité Wi-Fi provoque une QoE médiocre pendant de nombreuses heures, bien que dans la plupart des cas ces événements soient courts
Poor Wi-Fi quality can disrupt home users' internet experience, or the Quality of Experience (QoE). Detecting when Wi-Fi degrades QoE is valuable for residential Internet Service Providers (ISPs) as home users often hold the ISP responsible whenever QoE degrades. Yet, ISPs have little visibility within the home to assist users. This thesis designs and evaluates techniques to passively monitor Wi-Fi quality on commodity access points (APs) and predict when Wi-Fi quality degrades internet application QoE. Our first contribution is the design and evaluation of a method that estimates Wi-Fi link capacity. We extend previous models, suited for 802.11a/b/g networks, to work on 802.11n networks using passive measurements. Our second contribution is the design and evaluation of predictors of the effect of Wi-Fi quality on QoE of four popular applications: web browsing, YouTube, audio and video real time communication. Our third contribution is the design of a method to identify poor QoE events. We use K-means clustering to identify instances where the QoE predictors estimate that all studied applications perform poorly. Then, we classify poor QoE events as short, intermittent, and consistent poor QoE events. Finally, our fourth contribution is to apply our predictors to Wi-Fi metrics collected over one week from 832 APs of customers of a large residential ISP. Our results show that QoE is good on the vast majority of samples of the deployment, still we find 9% of poor QoE samples. Worse, approximately 10% of stations have more than 25% poor QoE samples. In some cases, we estimate that Wi-Fi quality causes poor QoE for many hours, though in most cases poor QoE events are short
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Alaoui, Fdili Othmane. "Optimisation multicritères de la qualité de service dans les réseaux de capteurs multimédia sans fil". Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0016/document.

Texto completo da fonte
Resumo:
Les progrès réalisés en systèmes micro-électro-mécaniques couplés avec leur convergence vers les systèmes de communication sans fil, ont permis l'émergence des réseaux de capteurs sans fil (RCSF). Les contraintes de ces réseaux font que tous les efforts soient fournis pour proposer des solutions économes en énergie. Avec les récents développements des technologies CMOS, des capteurs d'images à faible coût ont été développés. En conséquence, un nouveau dérivé des RCSF, qui sont les Réseaux de Capteurs Vidéo Sans Fil (RCVSF), a été proposé. La particularité des données vidéo ainsi que les contraintes inhérentes aux nœuds ont introduit de nouveaux défis. Dans cette thèse, nous proposons deux solutions basées sur l'approche inter-couches pour la livraison de la vidéo sur les RCVSF. La première solution propose un nouveau schéma de compression vidéo adaptatif, efficace en énergie et basé sur la norme de compression vidéo H.264/AVC. Le flux vidéo est ensuite géré par une version améliorée du protocole MMSPEED que nous proposons et notons EQBSA-MMSPEED. Les résultats des simulations montrent que la durée de vie du réseau est étendue de 33%, tout en améliorant la qualité du flux vidéo reçu de 12%. Dans la deuxième solution, nous enrichissons le schéma de compression de modèles mathématiques pour prévoir la consommation d'énergie et la distorsion de l'image lors des phases d'encodage et de transmission. Le flux vidéo est géré par un nouveau protocole de routage efficace en énergie et à fiabilité améliorée noté ERMM. Comparée à une approche basique, cette solution réalise une extension de la durée de vie du réseau de 15%, tout en améliorant la qualité du flux vidéo reçu de 35%
Thanks to the valuable advances in Micro Electro-Mechanical Systems coupled with their convergence to wireless communication systems, the Wireless Sensor Networks (WSN). In the WSN context, all the efforts are made in order to propose energy-efficient solutions. With the recent developments in CMOS technology, low-cost imaging sensors have been developed. As a result, a new derivative of the WSN, which is the Wireless Video Sensor Network (WVSN), has been proposed. The particularities of the video data as well as the inherent constraints of the nodes have introduced new challenges. In this thesis, we propose two cross-layer based solutions for video delivery over the WVSN. The first solution proposes a new energy efficient and adaptive video compression scheme dedicated to the WVSNs, based on the H.264/AVC video compression standard. The video stream is then handled by an enhanced version of MMSPEED protocol, that we propose and note EQBSA-MMSPEED. Performance evaluation shows that the lifetime of the network is extended by 33%, while improving the video quality of the received stream by 12%. In the second solution, we enrich our compression scheme with mathematical models to predict the energy consumption and the video distortion during the encoding and the transmission phases. The video stream is then handled by a novel energy efficient and improved reliability routing protocol, that we note ERMM. Compared to a basic approach, this solution is extending the network lifetime by 15%, while improving the quality of the received video stream by 35%
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Chaouch, Mounir. "Effet de l'intensité du traitement sur la composition élémentaire et la durabilité du bois traité thermiquement : développement d'un marqueur de prédiction de la résistance aux champignons basidiomycètes". Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10027/document.

Texto completo da fonte
Resumo:
Le traitement thermique est une méthode appropriée pour la valorisation d'essences européennes peu durables. Les modifications chimiques en résultant confèrent au bois une meilleure stabilité dimensionnelle et durabilité aux attaques fongiques, alors que les propriétés mécaniques diminuent plus ou moins. Le verrou actuel de ce procédé reste la grande difficulté à produire à l'échelle industrielle un produit de qualité constante (durabilité, stabilité dimensionnelle, couleur). Ces difficultés sont dues à l'hétérogénéité du matériau et des conditions de traitement réalisé généralement par convexion. La mise au point d'un pilote de traitement thermique par conduction permettant une mesure en dynamique de la perte de masse a été réalisée pour optimiser la conduite du traitement, mieux comprendre les réactions de thermodégradation et développer un outil de contrôle de la qualité du bois traité. Les résultats obtenus, réalisés dans des conditions de traitement proches des conditions industrielles, indiquent un effet important de l'essence de bois traitée sur les cinétiques de perte de masse observées, les feuillus étant généralement plus sensibles à la thermodégradation que les résineux. Il a ensuite été établi une forte corrélation entre le niveau de thermodégradation du bois estimé à partir de sa perte de masse et l'augmentation de sa durabilité aux champignons basidiomycètes. L'analyse fine et la compréhension des mécanismes réactionnels intervenant durant le traitement ont permis de mettre en évidence un lien direct entre la composition élémentaire du bois et la perte de masse due aux réactions de thermodégradation, permettant également de prédire la durabilité aux attaques fongiques. Le taux de carbone, d'oxygène ou encore le rapport O/C peuvent de ce fait être considérés comme des marqueurs pertinents permettant de contrôler la qualité du bois traité thermiquement
Thermal treatment has been used to improve properties of non durable European species. Chemical modification of some of the wood components provides improved dimensional stability and biological performance against decay fungi while mechanical properties such as modulus of rupture are reduced. Quality control of commercially made thermally treated wood is one of the major road blocks of its industrial development. The variability inherent within a wood species and between wood species, density and chemical compositions variation combined with the heat treatment parameters such as temperature duration and levels contribute to the production of heterogeneous heat treated wood. The development of a heat treatment process by conduction which monitors the weight changes during the process will facilitate and help in controlling, in understanding and predicting the properties of heat treated wood. Data collected from a pilot study of heat treated wood using conditions similar to commercial process show that hardwood species were more susceptible to thermal degradation as compared to softwood. It was also established that wood chemical composition is directly connected to the percent of weight loss due to thermodegradation, allowing the use of chemical composition to predict fungi durability. Carbon and oxygen contents and/or oxygen to carbon ratio of heat treated wood can be therefore used as valuable markers to develop quality control assessment of heat treated wood
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia