Tesi sul tema "Modèles prédictif"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Modèles prédictif.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Modèles prédictif".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Benson, Marie Anne. "Pouvoir prédictif des données d'enquête sur la confiance". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69497.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données d’enquête sur la confiance sont des séries chronologiques recensant les réponses à des questions visant à mesurer la confiance et les anticipations des agents économiques à propos de l’activité économique future. La richesse de ces données ainsi que leur disponibilité en temps réel suscitent l’intérêt de nombreux prévisionnistes, qui y voient un moyen d’améliorer leurs prévisions classiques. Dans ce mémoire, j’évalue le pouvoir prédictif des données d’enquête sur la confiance pour l’évolution future du PIB, tout en comparant notamment la performance prévisionnelle des indices de confiance produits par le Conférence Board of Canada aux indicateurs que je construis par l’analyse en composantes principales. À partir de trois modèles linéaires, j’analyse une expérience de prévision hors échantillon, de type « rolling windows », sur un échantillon couvrant la période 1980 à 2019. Les résultats démontrent que l’analyse en composantes principales fournissent des indicateurs plus performants que les indices de confiance du Conference Board. Cependant, les résultats de l’étude ne permettent pas d’affirmer clairement que la confiance améliore la prévision une fois que le taux de croissance retardé du PIB est incorporé.
Confidence survey data are time series containting the responses to questions aiming to measure confidence and expectations of economic agents about future economic activity. The richness of these data and their availability in real time attracts the interest of many forecasters who see it as a way to improve their traditional forecasts. In this thesis, I assess the predictive power of survey data for the future evolution of Canadian GDP, while comparing the forecasting performance of the Conference Board of Canada own confidence indices to the indicators I construct using principal component analysis. Using three simple linear models, I carry out an out-of-sample forecasting experiment with rolling windows on the period 1980 to 2019. The results show that principal component analysis provides better-performing indicators than the indices produced by the Conference Board. However, the results of the study cannot show that clear that confidence improves forecasting unambiguently once the lagged growth rate of GDP is added to the analysis.
2

Alaoui, Ismaili Oumaima. "Clustering prédictif Décrire et prédire simultanément". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le clustering prédictif est un nouvel aspect d’apprentissage supervisé dérivé du clustering standard. Les algorithmes appartenant à ce type de l’apprentissage cherchent à décrire et à prédire d’une manière simultanée. Il s’agit de découvrir la structure interne d’une variable cible. Puis munis de cette structure, de prédire la classe des nouvelles instances.Pour atteindre l’objectif de la thèse qui est la recherche d’un modèle d’apprentissage "interprétable" capable de décrire et de prédire d’une manière simultanée, nous avons choisi de modifier l’algorithme des K-moyennes standard. Cette version modifiée est nommée les K-moyennes prédictives. Elle contient 7 différentes étapes dont chacune peut être supervisée indépendamment des autres.Au cours de cette thèse, nous nous intéressons à la supervision de quatre étapes, à savoir : 1) le prétraitement des données, 2) l’initialisation des centres, 3) le choix de la meilleure partition et 4) la mesure d’importance des variables.Nos résultats expérimentaux montrent d’une part qu’avec la supervision de l’étape de prétraitement des données et de l’étape d’initialisation des centres, l’algorithme des K-moyennes prédictives parvient à avoir des performances très compétitives ou meilleures que celles obtenues par certains algorithmes de clustering prédictif.D’autre part, ces résultats expérimentaux mettent l’accent sur la capacité de nos méthodes de prétraitement à aider l’algorithme des K-moyennes prédictives à fournir des résultats facilement interprétables par l’utilisateur.Nous montrons enfin dans ce mémoire qu’avec l’aide du critère d’évaluation proposé dans cette thèse, l’algorithme des K-moyennes prédictives parvient à sélectionner la partition optimale qui réalise le bon compromis entre la description et la prédiction. Ceci permet à l’utilisateur de découvrir les différentes raisons qui peuvent mener à une même prédiction
Predictive clustering is a new supervised learning framework derived from traditional clustering. This new framework allows to describe and to predict simultaneously. Compared to a classical supervised learning, predictive clsutering algorithms seek to discover the internal structure of the target class in order to use it for predicting the class of new instances.The purpose of this thesis is to look for an interpretable model of predictive clustering. To acheive this objective, we choose to modified traditional K-means algorithm. This new modified version is called predictive K-means. It contains 7 differents steps, each of which can be supervised seperatly from the others. In this thesis, we only deal four steps : 1) data preprocessing, 2) initialization of centers, 3) selecting of the best partition, and 4) importance of features.Our experimental results show that the use of just two supervised steps (data preprocessing and initialization of centers), allow the K-means algorithm to acheive competitive performances with some others predictive clustering algorithms.These results show also that our preprocessing methods can help predictive K-means algorithm to provide results easily comprehensible by users. We are also showing in this thesis that the use of our new measure to evaluate predictive clustering quality, helps our predictive K-means algorithm to find the optimal partition that establishes the best trade-off between description and prediction. It thus allows users to find the different reasons behind the same prediction : two differents instances could have the same predicted label
3

Durand, Maxim. "Etude de la régulation lymphocytaire T dans deux modèles de transplantation rénale et pulmonaire". Thesis, Nantes, 2018. http://www.theses.fr/2018NANT1001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transplantation s’accompagne aujourd’hui systematiquement de traitements immunosuppresseurs qui inhibent la reponse alloimmune dirigee contre le greffon afin d’eviter son rejet. Cependant, ces traitements lourds ont de nombreux effets deleteres et ne permettent pas de controler efficacement la survenue du rejet chronique a long terme. L’objectif de ce travail de these, base sur deux situations cliniques distinctes, s’inscrit dans deux axes prioritaires de la recherche en transplantation : (1) identifier des marqueurs predictifs de la perte de fonction des greffons pulmonaires et (2) decrypter les mecanismes de l’acceptation des greffons renaux dans une situation de tolerance operationnelle. Tout d’abord, nous avons etudie les mecanismes de l’acceptation du greffon, chez des patients transplantes renaux presentant un greffon fonctionnel en l’absence de traitement immunosuppresseur. Nous avons identifie chez ces patients une proportion plus importante de lymphocytes T regulateurs memoires circulants, ayant la capacite de degrader l’ATP extracellulaire et favoriser un etat protolerogenique. Ce mecanisme, defaillant chez les patients stables sous traitement, pourrait participer au maintien d’un greffon renal fonctionnel chez les patients tolerants non traites. Dans un second temps, nous nous sommes interesses, chez des patients transplantes pulmonaire, a la prediction de la survenue du rejet chronique. Nous avons mis en evidence un profil lymphocytaire T regulateur modifie chez les patients qui developperont un rejet chronique a long-terme. Le suivi de ce biomarqueur pourrait permettre une meilleure identification des patients a risque de rejet
Transplantation is nowadays systematically associated with the administration of immunosuppressive treatments inhibiting the allo-immune response toward the graft to prevent the rejection by the recipient's immune system. However, these heavy treatments have several deleterious effects and are not able to control longterm chronic rejection development. Thus, the objective of this PhD work, based on two distinct clinical situations, is part of two priority axes of transplant research: (1) identify early predictive markers of long-term lung allograft dysfunction and (2) decipher the mechanisms involved in the acceptance of kidney allograft in operational tolerance. We first investigated the mechanisms of graft acceptance in kidney transplanted patients with a functional graft in the absence of immunosuppressive therapy. We identified in these patients a greater proportion of circulating memory regulatory T lymphocytes, with an increased ability to degrade extracellular ATP, a pro-inflammatory mediator, and favour a protolerogenic environment. Thus, this mechanism, not efficient in stable patients under treatments, could participate in the inhibition of the allo-immune response leading to maintaining a functional kidney graft in the absence of immunosuppression. In a second time, we interested in the prediction of chronic rejection occurrence in lung transplanted patients. We report that the early posttransplant regulatory T lymphocyte profile is modified in patients who will develop chronic rejection in the 3 years. Thus, monitoring this predictive biomarker could allow a better identification of patients at risk of rejection
4

Ghosn, Stéphanie. "Développement d'un modèle animal prédictif de la réponse immunitaire de l'homme aux vaccins". Paris 7, 2014. http://www.theses.fr/2014PA077119.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'existence d'un modèle préclinique prédictif de la réponse immunitaire de l'homme aux vaccins devient une nécessité. Le premier objectif de cette étude est de comparer la validité de deux modèles de souris humanisée basés respectivement sur la reconstitution de souris NOD-SCID-Gamma null (NSG) avec des lymphocytes du sang périphérique (Hu-PBL-NSG) ou avec des splénocytes humains (Hu-SPL-NSG). Le second objectif est d'utiliser le meilleur modèle pour évaluer et sélectionner les candidats vaccins les plus prometteurs contre le paludisme à Plasmodium falciparum. Des souris NSG sont greffées avec des lymphocytes circulants ou des splénocytes et immunisées avec différentes préparations vaccinales. Les résultats montrent que les cellules humaines greffées sont fonctionnelles dans les deux modèles et sécrètent des IgG, ainsi que des anticorps spécifiques de l'antigène injecté. Cependant, dans le modèle Hu-PBL-NSG, on observe un taux élevé de mortalité et de morbidité des souris. De plus, la réponse spécifique contre les antigènes reste majoritairement de type IgM, même après plusieurs rappels. Le modèle Hu-SPL-NSG, ne présentant pas ces inconvénients, a donc été sélectionné pour étudier la réponse immunitaire humaine contre la construction vaccinale de P. Falciparum LSA3-FL (Liver Stage Antigen 3-Full Length). Les résultats obtenus corroborent ceux observés chez l'homme au cours d'un essai clinique de LSA3-FL et sont dissemblables à ceux obtenus chez les rongeurs et les primates. En conclusion, nous proposons la souris humanisée Hu-SPL-NSG comme modèle préclinique prometteur de la réponse aux vaccins
In the field of vaccine development, a predictive preclinical model is most needed. In this study, our first objective was to compare the validity, for preclinical evaluation of vaccines, of two humanized mouse models, based on the engraftment of NOD-SCID-Gamma null (NSG) mice with either peripheral blood lymphocytes (Hu-PBL-NSG) or human spleen lymphocytes (Hu-SPL-NSG). The second objective was to use the best model to evaluate different vaccine candidates against Plasmodium falciparum malaria in order to select the most promising ones. NSG mice were engrafted with either peripheral blood lymphocytes or spleen lymphocytes and immunized with different vaccine preparations. Our resuits show that the engrafted human lymphocytes remain functional in both models, and secrete IgG, as well as specific antibodies against the injected antigens. However, the Hu-PBL-NSG model exhibits high morbidity and mortality rates. Moreover, human specific antibody responses elicited in this model remain predominantly of the IgM isotype even aliter repeated booster immunizations. These limitations were completely absent in the Hu-SPL-NSG model that has thus been selected to study the human immune response induced by a P. Falciparum liver stage construct LSA3-FL (Liver Stage Antigen 3-Full Length). Our findings corroborate the resuits observed in a clinical trial conducted with LSA3-FL and diverge from those obtained in rodents and primates. In conclusion, we propose that the Hu-SPL-NSG mouse is a cost efficient and time saving preclinical model that allows optimal screening of potentially protective vaccine candidates prior to clinical trials
5

Luc, Pauline. "Apprentissage autosupervisé de modèles prédictifs de segmentation à partir de vidéos". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM024/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles prédictifs ont le potentiel de permettre le transfert des succès récents en apprentissage par renforcement à de nombreuses tâches du monde réel, en diminuant le nombre d’interactions nécessaires avec l’environnement.La tâche de prédiction vidéo a attiré un intérêt croissant de la part de la communauté ces dernières années, en tant que cas particulier d’apprentissage prédictif dont les applications en robotique et dans les systèmes de navigations sont vastes.Tandis que les trames RGB sont faciles à obtenir et contiennent beaucoup d’information, elles sont extrêmement difficile à prédire, et ne peuvent être interprétées directement par des applications en aval.C’est pourquoi nous introduisons ici une tâche nouvelle, consistant à prédire la segmentation sémantique ou d’instance de trames futures.Les espaces de descripteurs que nous considérons sont mieux adaptés à la prédiction récursive, et nous permettent de développer des modèles de segmentation prédictifs performants jusqu’à une demi-seconde dans le futur.Les prédictions sont interprétables par des applications en aval et demeurent riches en information, détaillées spatialement et faciles à obtenir, en s’appuyant sur des méthodes état de l’art de segmentation.Dans cette thèse, nous nous attachons d’abord à proposer pour la tâche de segmentation sémantique, une approche discriminative se basant sur un entrainement par réseaux antagonistes.Ensuite, nous introduisons la tâche nouvelle de prédiction de segmentation sémantique future, pour laquelle nous développons un modèle convolutionnel autoregressif.Enfin, nous étendons notre méthode à la tâche plus difficile de prédiction de segmentation d’instance future, permettant de distinguer entre différents objets.Du fait du nombre de classes variant selon les images, nous proposons un modèle prédictif dans l’espace des descripteurs d’image convolutionnels haut niveau du réseau de segmentation d’instance Mask R-CNN.Cela nous permet de produire des segmentations visuellement plaisantes en haute résolution, pour des scènes complexes comportant un grand nombre d’objets, et avec une performance satisfaisante jusqu’à une demi seconde dans le futur
Predictive models of the environment hold promise for allowing the transfer of recent reinforcement learning successes to many real-world contexts, by decreasing the number of interactions needed with the real world.Video prediction has been studied in recent years as a particular case of such predictive models, with broad applications in robotics and navigation systems.While RGB frames are easy to acquire and hold a lot of information, they are extremely challenging to predict, and cannot be directly interpreted by downstream applications.Here we introduce the novel tasks of predicting semantic and instance segmentation of future frames.The abstract feature spaces we consider are better suited for recursive prediction and allow us to develop models which convincingly predict segmentations up to half a second into the future.Predictions are more easily interpretable by downstream algorithms and remain rich, spatially detailed and easy to obtain, relying on state-of-the-art segmentation methods.We first focus on the task of semantic segmentation, for which we propose a discriminative approach based on adversarial training.Then, we introduce the novel task of predicting future semantic segmentation, and develop an autoregressive convolutional neural network to address it.Finally, we extend our method to the more challenging problem of predicting future instance segmentation, which additionally segments out individual objects.To deal with a varying number of output labels per image, we develop a predictive model in the space of high-level convolutional image features of the Mask R-CNN instance segmentation model.We are able to produce visually pleasing segmentations at a high resolution for complex scenes involving a large number of instances, and with convincing accuracy up to half a second ahead
6

Palomares, Maria Lourdes Distor. "La consommation de nourriture chez les poissons : étude comparative, mise au point d'un modèle prédictif et application à l'étude des réseaux trophiques". Toulouse, INPT, 1991. http://www.theses.fr/1991INPT022A.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La construction de modeles representant les relations trophiques dans les ecosystemes est necessaires, notamment pour l'amenagement des peches. Elle impose de connaitre la quantite de nourriture q consommee par chaque espece ou groupe d'especes inclus dans le modele. Ces estimations sont rapportees a l'unite de biomasse b et l'on utilise le parametre q/b pour la periode consideree. Une estimation de q/b/ n est utile que si elle tient compte des variations saisonnieres de la prise de nourriture, du type de nourriture consommee et de la structure demographique de la population en question. Dans ce travail, 100 estimations de q/b sont presentees et un modele predictif de calcul de q/b a ete obtenu par une regression multilineaire. Les predicteurs sont le poids asymptotique des poissons dans la population consideree, la forme de la nageoire caudale definie par un indice (aspect ratio) rendant compte du niveau d'activite des poissons et de leur metabolisme, la temperature moyenne annuelle de l'habitat et le type de nourriture. Ce dernier est introduit par une variable discrete: 0 pour les carnassiers et 1 pour les phytophages. Les estimations de q/b ainsi obtenues sont comparees a celles calculees directement et deja utilisees dans la description de certains ecosystemes. Les ecosystemes ainsi schematises sont les lacs tchad, tanganyka et victoria ainsi que l'etang de thau
7

Lu, Jun. "Développement de modèles prédictifs décrivant le couplage chimie-transport dans les sédiments naturels". Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2287/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La gestion de sols ou sédiments contaminés par des métaux nécessite de pouvoir prédire la migration de ces métaux, dont la mobilité dépend des propriétés de transport du milieu ainsi que de la réactivité chimique de celui-ci (principalement réactions sorption/désorption). Pour étudier l'adsorption des cations métalliques (majeurs et traces) en condition dynamique, des expériences de transport en colonne ont été réalisées avec un sol pauvre en minéraux carbonatés et en matière organique. Considérant que la réactivité de ce sol était due essentiellement à la phase argileuse smectitique, un modèle d'adsorption basé sur les propriétés de rétention de la montmorillonite du Wyoming, utilisant la théorie des échangeurs d'ions multi-sites a été intégré à un code de transport 1D. Les prédictions calculées par ce modèle ont ensuite été comparées aux courbes de percées mesurées dans cette étude et reportées de la littérature. L'étude sur le transport réactif des cations majeurs a mis en évidence le rôle significatif des protons (et ce même à des pH proche de la neutralité), et a permis de valider le modèle pour le transport compétitif des cations majeurs (Na et Ca). Cependant, l'étude de la rétention de Zn(II) a mis en évidence une incohérence entre les résultats issus des expériences batch et ceux obtenus avec les expériences colonne, que l'on pourrait attribuer à la contribution d'une autre phase adsorbante (illite). Néanmoins, le modèle d'adsorption proposé a permis de reproduire avec une bonne satisfaction des données expérimentales de rétention de Zn(II) proposées dans la littérature et obtenues avec des expériences colonne
Management of soils or sediments contaminated by metals requires to predict the migration of metallic cations, whose mobility depends both on the transport properties of the medium and chemical reactivity of the system (principally sorption/desorption reactions). To study the sorption of metallic cations (major and trace) in dynamic condition, transport experiments using columns have been carried out with a soil poor in carbonated minerals and organic matter. Considering that the reactivity of this soil was mainly due to swelling clay minerals, a sorption model based on the sorption properties of the Wyoming montmorillonite and built according to a multi-site ion exchanger theory has been integrated into a 1D transport code. The predictions given by this model were then compared with the breakthrough curves measured in this study and those reported in the literature. The study of the reactive transport of major cations highlighted the significant role of protons (even at near neutral pH), and validated the model for major cations (Na and Ca). However, the study concerning Zn (II) showed a discrepancy between the results obtained from batch experiments and those issued from column experiments, which could be attributed to the contribution of another sorbent phase (illite). Finally, the proposed sorption model allowed reproducing with a good confidence experimental data reported from literature for sorption of Zn (II) in dynamic conditions
8

Zhang, Fan. "Développement d’un dispositif expérimental original et d’un modèle prédictif pour l’étude thermodynamique des composés soufrés". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les composés soufrés sont répandus dans divers secteurs industriels comme la chimie. La conception et/ou l'optimisation des procédés impliquant ces composés nécessite de connaître leurs propriétés thermodynamiques (corps purs et mélanges). Etant donnée la complexité des mélanges et pour des raisons économiques, des modèles thermodynamiques « prédictifs » sont souvent privilégiés. Le développement et la validation de ces modèles nécessitent des données expérimentales. Notre étude bibliographique ciblant les sulfures (R-S-R'), les 1-mercaptans (R-SH) et leurs éventuels solvants (les n-alcanes et les 1-alcools) nous a permis de mettre en évidence un manque de données concernant ces composés. De plus nous avons également observé un manque de techniques expérimentales adaptés, et de ce fait le besoin de développer un nouveau dispositif expérimental.Au cours de cette thèse, nous avons conçu un dispositif expérimental innovant permettant la mesure des équilibres liquide-vapeur à des pressions comprises entre 0,1 et 10 bar. Ce dispositif est basé sur la méthode « statique-analytique ». Nous avons mis en place deux adaptations spécifiques aux échantillonneurs capillaires ROLSITM pour permettre l'échantillonnage à ces pressions. De nouvelles données des mélanges binaires et ternaires d'intérêt ont été ainsi mesurées.Le modèle thermodynamique prédictif choisi est PC-SAFT couplé avec une méthode de Contribution de Groupes (GC-PC-SAFT). Un terme polaire a été introduit. Le travail s'est focalisé sur l'étude de deux familles représentatives de composés soufrés : les sulfures et les 1-mercaptans. Le modèle GC-PC-SAFT a montré sa capacité de bien corréler et prédire les propriétés thermodynamiques des corps purs. L'ajustement des paramètres s'est appuyé sur les données de la littérature et celles obtenues par le nouvel équipement. Les diagrammes de phases des mélanges binaires (sulfure + n-alcane, sulfure + 1-alcool, 1-mercaptan + n-alcane et 1-mercaptan + 1-alcool) et ternaires (1-mercaptan + n-alcane + 1-alcool) ont été prédits
Sulfur compounds are widespread in various industrial fields. Design and/or optimization of the processes involving these compounds require accurate knowledge of thermodynamic properties of the concerned mixtures. Considering the complexity of industrial mixtures and for economical reasons, one may look to thermodynamic models with predictive features. To develop and validate these models, a minimum number of experimental data are required. Our literature review on sulfides (R-S-R'), 1-thiols (R-SH) and their possible solvents (n-alkanes and 1-alkanols) has shown a lack of data and of adapted experimental method. This observation leads to the need of developing a new experimental apparatus.In this work, we designed an innovative experimental apparatus for vapor-liquid-equilibrium measurements in the pressure range of [0.1 – 10] bar. The new apparatus is based on the “static-analytic” method. The key improvements are the two adaptations made for ROLSITM capillary samplers to achieve phase sampling in this pressure range. After validating the newly developed apparatus, new data of binary and ternary mixtures of interest were measured in order to develop a new predictive thermodynamic model focusing on sulfur compounds.The proposed predictive model is the PC-SAFT equation of state combined with a group contribution method (GC-PC-SAFT). We incorporated a polar term into PC-SAFT and investigated two representative families of sulfur compounds: sulfides and 1-thiols. The GC-PC-SAFT model proved reliable in correlating and predicting thermodynamic properties of pure compounds. Model parameters were fitted to the data found in the literature, as well as to those obtained through the new apparatus. Phase diagrams of some binary (sulfide + n-alkane, sulfide + 1-alkanol, 1-thiol + n-alkane and 1-thiol + 1-alkanol) and ternary (1-mercaptan + n-alkane + 1-alcool) mixtures were predicted
9

Monjo, Florian. "Contrôle prédictif des effets mécaniques de la fatigue musculaire : implication dans l'étude des modèles internes et des modes de coordination entre posture et mouvement". Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET014T.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fatigue musculaire est un phénomène transitoire communément expérimenté dans la vie quotidienne. Principalement associée à un déficit de production de force, elle s’accompagne également d’une augmentation de l’effort mental à fournir pour déployer un niveau de force particulier. L’augmentation du taux de décharge des afférences nociceptives de petit diamètre (groupes III et IV) lors de contractions fatigantes modifie l’expression des commandes motrices – notamment en raison de processus inhibiteurs associés à leur intégration aux niveaux spinal et supraspinal – ce qui affecte finalement la production motrice. C’est la raison pour laquelle une intention motrice similaire avec et sans fatigue se traduira par des formes gestuelles différentes. Une problématique qui n’a jusque-là jamais été abordée dans la littérature concerne la capacité du Système Nerveux Central (SNC) à anticiper les effets de la fatigue musculaire de façon prédictive. Cette capacité prédictive sera étudiée dans ce travail de thèse au moyen de paradigmes expérimentaux faisant intervenir des processus de contrôle prédictifs de la posture, i.e. les Ajustements Posturaux Anticipés (APAs). Du fait que de nombreux travaux montrent que les APAs sont modulés en fonction des caractéristiques mécaniques du mouvement à venir, l’altération des capacités des muscles focaux grâce à des protocoles de fatigue maîtrisés nous a permis d’apprécier la capacité du SNC à en prédire les effets. Nous verrons que cette capacité est condition-dépendante, à savoir qu’elle dépend de la nature des contractions effectuées (volontaires vs. électro-induites) et du niveau de contraintes cognitives et temporelles imposées lors de la préparation du mouvement
Muscle fatigue is a transient and commonly experienced phenomenon. It is mainly associated with loss of force and leads to higher effort to produce a particular force level. The increased discharge rate of the nociceptive afferents (group III and IV) during fatiguing contractions alters motor command expression and finally motor production. An issue that has never been addressed in the literature is the Central Nervous System (CNS) capacity to anticipate muscle fatigue effects in a predictive fashion. This predictive capacity will be investigated thanks to experimental paradigms involving postural predictive processes of control, namely Anticipatory Postural Adjustments (APAs). Because numerous works show that APAs are modulated as a function of the mechanical properties of the upcoming movement, the induction of muscle fatigue at the levels of the focal muscles allowed us to appreciate the CNS capacity to predict muscle fatigue effects. We will demonstrate that this capacity is condition-dependent, i.e. it depends on the nature of the fatiguing contractions performed (voluntary vs. electro-induced) and on the level of cognitive and temporal constraints during movement preparation
10

Haddadi, Ahmed Zine El Abidine. "Construction d’un score prédictif du risque nosocomial pour des patients de réanimation". Thesis, Lille 2, 2013. http://www.theses.fr/2013LIL2S039/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les infections nosocomiales demeurent un véritable défi de santé publique en dépit des progrès techniques considérables enregistrés. Inhérentes à la prise en charge de soins, se sont les services de réanimation qui comptabilisent les plus fort taux de prévalence. En effet, quelle que soit leur orientation (chirurgicale, médicale ou mixte), ces services, ont pour mission la prise en charge des patients dont le processus vital est menacé par la survenue brutale d’une ou de plusieurs défaillances organiques nécessitant un arsenal diagnostic et/ou thérapeutique souvent invasif.Parmi les conséquences induites par ces infections ; i) l’allongement de la durée de séjour, ii) le surcoût, iii) une augmentation de la mortalité, et iv) la résistance bactérienne.Pouvoir anticiper en amont et en aval cette problématique aux motifs complexes et aux conséquences parfois fatales serait un atout majeur au profit des patients et un outil stratégique pour les équipes soignantes.Organisée autour de trois étapes charnières, la présente étude s’est d’abord attelée à la phasede l’identification des facteurs de risque de l’évènement nosocomial et de mortalité au service de réanimation ou s’est passé l’étude –prise en compte du case-mix du service de réanimation CHU la TIMONE-. Réalisée grâce à deux méthodes statistiques différentes à savoir la régression logistique et la méthode des risques compétitifs. L’étape suivante a consisté dans un premier temps à comparer les capacités prédictives des scores APACHE II, LOD, SOFA et SAPS II chez ces patients -hospitalisés en réanimation-ayant développé un épisode nosocomial. Dans un second temps de déterminer si la variation des scores LOD, SOFA, APACHEII et SAPS II est un facteur pronostique du risque nosocomial. Les résultats obtenus révèlent que la meilleure performance prédictive est objectivée au profit du SOFA et que seule la variation de ce même score entre le premier jour d’hospitalisation et celui du diagnostic de l’infection nosocomiale mesurée grâce à l’AUC est prédictive du risque nosocomial.À l’issue de ces étapes et au moyen des résultats obtenus une construction d’un score prédictif est réalisée grâce à la méthode de régression logistique. L’objectif de ce score est d’éclairer voire d’influencer le prescripteur lors de ses prises de décisions ou d’éventuelle démarche d’ajustement de ses conduites thérapeutiques
Limiting nosocomial infections is still a health challenge although the technical development has improved. They are inherent in medical care and the health care services have the highest prevalence. Indeed, whatever the service (surgical, medical or both), the patients life-giving process is under attack because of the emergence of one or several organ faillures;This generates a diagnostic and therapeutic arsenal which is often invasive.Among the consequences resulting from these infections we will take into account :i) a longer stay in hospitalii) an extra costiii) a higher mortality rateiv) bacterial resistance .If we could anticipate upstream and downstream this issue with complex origins and sometimes fatal consequences, it would be a major asset for patients and a strategic tool for medical teams.The present study is organized in three parts, and first focusses onto the identification of the nosocomial event and death risk factors in intensive care where the study took place. We took into account the the case-mix of the intensive care unit in the TIMONE University Hospital. The study was made with two different statistic methods that is logistic regression and the competitive risks method.The next step first consisted in comparing the predictive capacities of the APACHE II, LOD, SOFA and SAPS II scores in nosocomial patients hospitalized in intensive care . Then it tried to determine if the variation of the LOD, SOFA, APACHEII and SAPS II scores was a prognostic risk factor.Results showed that the best predictive performance was objectively measured by the SOFA and that only the variation of this score between the first day in hospital and the day of the diagnosis of a nosocomial infection, calculated thanks to the AUC, could be predictive of a nosocomal risk. After these steps, and with the results calculated , the construction of a predictive score could be established thanks to the logistic regression method. The objective of this score is to help, or even influence the prescribing doctors when they take decisions or when they try to adjust their therapeutic practices
11

Kerhascoët, Hugo. "De la mesure du vent au pilotage automatique d'un voilier : modélisation, optimisation & application du traitement du signal prédictif". Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS433.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans la démarche de l'entreprise nke, visant à améliorer la qualité de la mesure du vent apparent et réel de ses centrales de navigations. Ces améliorations doivent profiter à ses utilisateurs mais également contribuer à la performance du pilote automatique. Dans un premier temps, est décrit le contexte spécifique à la mesure du vent depuis un voilier, et ses problématiques inhérentes. Suite à cette étude, deux types de verrous scientifiques ont été identifiés, à savoir : la mesure du vent sur le bateau par le senseur (lié à son design et à son modèle de réponse) et la chaîne de reconstruction du triangle de vent.Cette thèse propose donc, dans un premier temps, une nouvelle méthodologie pour le design de la girouette permettant de mettre en adéquation le profil du capteur avec les caractéristiques du bateau et son programme de navigation. Les contributions à l’amélioration de ce capteur aérien ont permis, d’une part, de diviser son temps de réponse par deux via l’optimisation de la forme de ses senseurs, et d’autre part, de fournir un signal utile 12 fois plus réactif, en appliquant des techniques de traitement du signal prédictif, intégrant la dynamique du capteur.Les travaux liés aux problématiques de reconstruction du vent réel en trois dimensions sont ensuite détaillés. Tout d'abord en s'intéressant aux normes et définitions des métriques qui lui sont associées, puis, en exposant les solutions permettant de prendre en compte les perturbations qui s'appliquent au vent apparent et réel dans la couche basse de l’atmosphère. Dans un second temps, les méthodes actuelles de reconstruction du vent réel sont étudiées. Cette analyse met en exergue le fait que ces corrections ne s’appliquent pas dans les bons référentiels. Pour pallier à ces problèmes, nous proposons une nouvelle approche de reconstruction du vent réel, mettant en œuvre les méthodes de corrections précédemment décrites.Ce manuscrit se termine par les apports au pilotage automatique. Ceux-ci prennent la forme d'un nouveau concept de "Mode Super", s’appliquant en sur-couche des modes de pilotage classiques. Leur rôle est d'améliorer la sécurité du pilotage pour le mode rafale et la performance pour le mode surf. Ces nouveautés ont été validées par des victoires en course, ont reçu un prix de l'innovation et a fait l'objet d'un dépôt de brevet pour le mode surf. Le pilote étant maintenant capable de barrer comme un humain dans les surfs. La dernière contribution apportée au pilote automatique concerne l'intégration d'un nouveau type de capteur : les penons électroniques.Enfin, le manuscrit contribue à l'appréhension de la globalité des problématiques et subtilités à prendre en compte, lorsque l'on développe ou utilise une centrale de navigation et un pilote automatique.Ces travaux ont mis en avant la forte corrélation entre les différents capteurs et données calculées par la centrale de navigation. Une avancée significative sur la précision de l'ensemble pourra être obtenue lorsque le concept du filtrage prédictif sera étendu et appliqué à la centrale de navigation dans sa globalité
This thesis is part of NKE Marine’s attempts to improve the quality of apparent and real wind measurementsprovided by its navigation unit. These improvements are expected to benefit both users and improve autopilot performance. The first part describes the specific context of wind measurement on a sailboat, and the inherent issues. This study identified two knotty scientific problems: on-board wind measurements recorded by the sensor (linked to its design and response model) and how the wind triangle is reconstructed. The first objective of this thesis is therefore to propose a new methodology for the design of the wind vane that can match the sensor’s profile with the boat’s characteristics and its route planning. Improvements to this aerial sensor make it possible, on the one hand, to divide the response time by two (via the optimization of the shape of the sensors) and, on the other hand, to provide a useful signal that is twelve times more sensitive (via the application of predictive signal processing techniques that take account of sensor dynamics). Next, previous work on the problem of reconstructing three-dimensional true wind is described in detail. This part begins with a presentation of the relevant standards and definitions of metrics, before examining some solutions that can take account of perturbations in apparent and true wind in the lower layer of the atmosphere. The following part examines current methods for reconstructing true wind. This analysis highlights the fact that these corrections are not applied in the correct frames. To overcome these problems, we propose a new approach to the reconstruction of the true wind, which implements the corrections described above. This manuscript ends with a presentation of the contribution to auto piloting. Specifically, it takes the form of a new concept, termed Super Mode, which can be overlaid onto classical modes of piloting. The aim is to improve safety in gusty conditions (Gust mode), and performance when surfing (Surf mode). The value of this innovation has been proven by competition victories; it has received an innovation award, and Surf mode is the subject of a patent application. The pilot is now able to glide like a human surfer. The final contribution to the autopilot concerns the integration of a new type of sensor: electronic telltales. Finally, this manuscript contributes to our overall understanding of the problems and nuances that must be taken into account when developing or using a navigation unit and an autopilot. The work highlights the close correlation between the various sensors and the data calculated by the navigation unit. Significant improvements to the accuracy of both elements can be obtained when the concept of predictive filtering is extended and appliedto the navigation unit as a whole
12

Hoang, Tuan Nha. "Incertitude des données biomécaniques : modélisation et propagation dans les modèles de diagnostic des pathologies du système musculosquelettique". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2171/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les pathologies du système musculosquelettique concernant les déformations / anomalies osseuses et musculaires (e.g. paralysie cérébrale) ont un fort impact sur la qualité de vie des personnes concernées. Les objectifs de la thèse sont d’approfondir les études précédentes en intégrant la modélisation de l’incertitude des données biomécaniques et biomédicales dans les modèles de diagnostic prédictif des pathologies du système musculosquelettique. L’intervalle a été choisi pour représenter l’incertitude des données biomécaniques. Ce formalisme est simple et peu coûteux sur le plan du calcul. Les données (physiologiques, morphologiques, mécaniques et analyse du mouvement) ont été recueillies à partir de la littérature en utilisant les moteurs de recherche des articles scientifiques fiables pour établir un espace d’incertitude. La nouvelle méthode de classement (nommée US-ECM) proposée est une méthode de classement semi-supervisé qui utilise la partition crédale pour représenter les connaissances partielles sur les clusters. L’utilisation de la fonction de croyance pour représenter ces éléments de connaissance permet de les combiner d’une manière souple et robuste. De plus, l’extension de cette méthode avec un espace d’incertitude multidimensionnelle a montré la meilleure performance par rapport à la version originale. L’analyse des avis d’expert permettra d’inclure ou d’exclure les sources de données selon leurs niveaux de fiabilité. Ensuite, le modèle de regroupement (US-ECM) développé sera appliqué sur une nouvelle base de données pour évaluer l’impact de la fiabilité des données sur la performance de diagnostic
The aim of the project is to investigate the modeling of the reliability/incertitude/imprecision of biomedical and biomechanics data (medical images, kinematics/kinetics/EMG data, etc.) and its propagation in the predictive diagnosls models of the disorders of musculoskeletal systems. These diagnosis models will be based on multimodal and multidimensional patient data (3D medical imaging, mechanical data,dinical data,etc.). The literature-based data have been collected to estabish an uncertainty space, which represents fused data from multiple sources, of morphological, mechanical, and movement analysis properties of the musculoskeletal system from multiple sources (i.e. research papers from Science Direct and Pubmed). After that,a new clustering method (US-ECM) is proposed for integrating fused data from multiple sources ln form of a multidimensional uncertainty space (US). Reliability of biomechanical data was evaluated by a fusion approach expert opinion. Reliability criteria of a data source (ie scientific paper published) focus on the technique used the acquisition protocol and measurement and the number of data. A system of questionnaires was developed to co!lect expert opinion. Then, the theory of beliet functions has been applied to merge these opinion to establish a confidence level each data source
13

Enot, David. "La modélisation moléculaire en tant qu'outil prédictif et de compréhension du comportement thermotrope et lyotrope de sucres. Approche QSPR de la lipophilie de 1,2-dithiole-3-thiones et 1,2-dithiole-3-ones". Rennes 1, 2001. http://www.theses.fr/2001REN10117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail présenté dans ce mémoire concerne l'étude des propriétés agrégatives de sucres et de la lipophilie de composés en série dithiolique par modélisation moléculaire. Dans une première partie, nous avons mis en oeuvre les outils de la mécanique moléculaire pour relier le comportement thermotrope et lyotrope d'une famille de bolaamphiphiles à la structure propre de ces composés. Une première approche a été l'examen des données crsitallographiques existantes sur des analogues structuraux des bolaformes pour déterminer les raisons énergétiques et stériques sui orientent la formation des assemblages supramoléculaires. Dans un second temps, les méthodes de recherche conformationnelle et de dynamique moléculaire dans le vide et en solution ont été mises à profit pour analyser le comportement des molécules. Sur cette base, une tentative de liaison entre l'architecture des molécules et la nature des mésophases observées a été effectuée. Enfin, l'étude du comportement agrégatif de sucres amphiphiles a été réalisée suivant une approche QSPR
14

Hébel, Pascale. "Utilisation d'estimateurs à rétrécisseurs dans les modèles prédictifs ; application à la prédiction du rendement de blé d'hiver". Toulouse 3, 1992. http://www.theses.fr/1992TOU30270.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de l'amelioration d'un modele lineaire agrometeorologique du rendement national de ble d'hiver nous sommes confrontes aux deux questions statistiques suivantes: * nous disposons d'un tres grand nombre de variables pour un faible nombre d'observations, quelle strategie de choix de variables doit-on utiliser ? * nous utilisons l'information individuelle (les departements) pour faire une prevision globale (nationale), quel type d'estimateurs a retrecisseurs peut-on utiliser ? nous proposons d'utiliser l'erreur quadratique moyenne de prevision (e. Q. M. P. ) pour evaluer les differents modeles. Dans le chapitre 3, nous evaluons en terme d'e. Q. M. P. Les strategies de choix de variables dans le cas ou l'on choisit une variable parmi plusieurs. Dans le chapitre 4, nous mettons en evidence l'existence d'estimateurs a retrecisseurs qui combinent l'information departementale et sont meilleurs en terme d'e. Q. M. P. Que les estimateurs des moindres carres. Les resultats methodologiques obtenus sont appliques a la prevision du rendement de ble. Pour reduire le nombre de variables explicatives nous utilisons la connaissance d'experts en agronomie. Pour estimer le gain obtenu en utilisant les estimateurs a retrecisseurs nous utilisons la validation croisee qui s'avere trop peu precise. Sous des hypotheses de multinormalite des variables et en estimant les parametres des distributions sur les donnees on calcule exactement ou avec des simulations l'e. Q. M. P. De differents modeles. Les estimateurs a retrecisseurs permettent d'ameliorer de 8% la valeur d'e. Q. M. P. Pour la prevision du rendement de 16 departements. Nous utilisons les resultats obtenus pour faire la prevision des rendements de ble nationaux en 1990 et 1991
15

Burnol, Stéphane. "Modèle prédictif d'évolution des Accidents Vasculaires Cérébraux". Thesis, Saint-Etienne, 2010. http://www.theses.fr/2010STET005T.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les lésions résultantes d’un Accident Ischémique Cérébral (AIC) restent invisibles pendant plusieurs heures voire dizaines d’heures sur les techniques conventionnelles d’imagerie médicale (scanner X ou IRM). De nouvelles séquences d’IRM (pondérées en diffusion et en perfusion) permettent de visualiser les atteintes immédiatement. Les images de diffusion et de perfusion sont le reflet de mécanismes physiopathologiques complexes et contiennent aussi des informations sur le devenir tissulaire. Un modèle probabiliste d’évolution des lésions visibles au stade précoce a été développé de manière à prédire les extensions et rétrécissements des dommages. Le résultat se présente sous la forme d’une cartographie probabiliste de nécrose où la valeur de chaque voxel de l’image représente le risque de mort cellulaire au stade chronique. Cette cartographie pourra être, ensuite, prise en compte dans la décision thérapeutique. Deux types d’approche ont été mises en place : une méthode de segmentation, permettant d’extraire les régions à risque, et une méthode de prédiction des voxels à risque de nécrose, de type régression logistique. Ces modèles fournissent des performances similaires par rapport aux quelques modèles décrits dans la littérature, mais sont plus performants sur les petites lésions et présentent une grande amélioration en raison de leur caractère entièrement automatique
The lesions resulting from an ischemic stroke remain invisible for several hours or even tens of hours on conventional techniques of medical imaging (CT scan or MRI). New MRI sequences (diffusion-weighted and perfusion-weighted images) reveal the damages immediately. The diffusion and perfusion images reflect complex pathophysiological mechanisms and also contain some information on the fate of the tissue. A probabilistic model of evolution of the lesions visible at an early stage was set up so as to predict expansions and contractions of the damages. The result is presented as a probabilistic mapping of necrosis where the value of each voxel of the image represents the risk of cellular death in the chronic phase. This mapping can then be taken into account in the therapeutic decision. We implemented two types of approach: a segmentation method, allowing extracting regions atrisk, and a prediction method, type of logistic regression, to predict voxels at risk of necrosis. These models provide similar performances with regard to the few models described in the literature, but are more efficient for small lesions and show a big improvement because they are fully automatic
16

Guenot, Sophie. "Développement d’un modèle prédictif de l’énantiosélectivité des lipases". Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000347/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’étude a porté sur le développement d’un modèle prédictif de l’énantiopréférence de la lipase de Burkholderia cepacia ATCC 21808 et plus particulièrement sur la relation pouvant exister entre l’accessibilité au site actif des énantiomères dérivés du (R,S)-alpha-bromo-phényl acétate d’éthyle et l’énantiosélectivité. Une approche mixte, couplant des techniques de modélisation moléculaire classiques à de nouvelles techniques algorithmiques de planification de mouvements issues de la robotique, a été utilisée pour modéliser les trajectoires de différents esters dérivés de l’alpha-bromo-phényl acétate d’éthyle. Les résultats obtenus in silico ont montré que les recherches de trajectoires sont plus rapides avec l’énantiomère (R) qu’avec l’énantiomère (S) pour 7 substrats synthétisés par voie chimique. De manière qualitative, ces résultats corrèlent avec l’énantiosélectivité de l’enzyme, obtenue expérimentalement, indiquant que celle-ci pourrait être associée à une plus ou moins grande difficulté d’accès. De plus, l’analyse des trajectoires a permis d’identifier des cibles privilégiées de mutagénèse (points de collision fréquemment rencontrés pour tous les substrats) parmi lesquels trois positions ont été retenues : Leu-17, Val-266 et Leu-287. Afin de générer et caractériser ces mutants ponctuels, un système d’expression recombinante de la lipase de B. Cepacia chez E. Coli et un protocole de purification par chromatographie d’affinité ont été développés. Les gènes lip et hp codant respectivement pour la lipase et sa protéine chaperonne ont été clonés dans différents vecteurs d’expression sous le contrôle de différents promoteurs. Le plus haut niveau d’activité lipase sous forme soluble jamais décrit dans la littérature concernant cette enzyme a été obtenu en utilisant le vecteur pFLAG-ATS sous le contrôle du promoteur tac (6679 U/Lculture). Les mutants ponctuels ont été construits par mutagénèse dirigée en remplaçant chaque position par les 19 autres acides aminés possibles. Les mutants V266, présentant les plus hautes activités lipase lors d’un crible au para-nitrophényl butyrate, ont été sélectionnés dans un premier temps afin de mesurer leurs énantiosélectivités lors de l’hydrolyse de l’α-bromo phényl acétate de 2-chloro éthyle. Parmi ces mutants, le V266G, présente une inversion d’énantiosélectivité en faveur de l’énantiomère (S) (E=18). L’absence de chaîne latérale de la glycine diminue l’encombrement stérique au niveau de la position 266 permettant ainsi à l’énantiomère (S) soit d’accéder plus facilement au site catalytique, soit de mieux se positionner pour former l’intermédiaire tétraédrique. En parallèle, un protocole de production de la lipase de B. Cepacia à l’échelle microplaque a été développé et validé sur la banque de mutants V266, afin de disposer, à terme, d’un outil de criblage pour de plus larges banques de mutants créées par évolution dirigée
The study focused on the development of a predictive model of Burkholderia cepacia ATCC 21808 lipase enantioselectivity and more specifically on the relationship that may exist between enantioselectivity and the accessibility to the active site of (R/S)-alpha-bromo phenyl acetic acid ethyl ester derivatives. A mixed approach, combining molecular modelling techniques and path planning algorithms issued from robotics research, was used to compute the geometrically allowed trajectories of various alpha-bromo phenyl acetic acid ethyl ester derivatives. In silico results indicated that the pathways are computed faster for the (R) enantiomer than the (S) enantiomer for 7 substrates synthesized by chemical synthesis. These results are in qualitative agreement with the enzyme enantioselectivity experimentally determined, indicating that enantioselectivity could be associated with a greater or lesser difficulty of access. In addition, the analysis of trajectories allowed to identify targets for mutagenesis (collision points frequently encountered for all substrates), amongst which three positions were selected: Leu-17, Val-266 and Leu-287. In order to generate and characterize these rational mutants, a recombinant expression system of B. Cepacia lipase in E. Coli and a purification protocol by affinity chromatography have been developed. Genes lip and hp encoding respectively for the lipase and its chaperone protein were cloned in different expression vectors under the control of different promoters. The highest level of lipase activity in soluble form ever described in the literature for this enzyme was obtained by using the vector pFLAG-ATS under the control of the tac promoter (6679 U / Lculture). Rational mutants were constructed by site-directed mutagenesis by replacing each position by the 19 other possible amino acids. Mutants V266, displaying the highest lipase activities in screening with para-nitrophenyl butyrate, were selected to measure their enantioselectivity during hydrolysis of the (R,S)- a-bromo phenyl acetic acid 2-chloro ethyl ester. Among these mutants, V266G displayed an inverted enantioselectivity in favour of the (S)-enantiomer (E=18). The absence of side chain in glycine decreases the steric hindrance at position 266, allowing thus the (S)-enantiomer to (a) access more easily to the catalytic site or (b) adopt a more easily productive conformation in order to form the tetrahedral intermediate. In parallel, a protocol for the production of B. Cepacia lipase at microplate scale has been developed and validated on the library of V266 mutants, in order to dispose of a screening tool for larger mutants libraries created by directed evolution
17

Zhu, Jian. "Modèles prédictifs de toxicité en radiothérapie par modulation d'intensité". Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00855266.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse est centré sur l'établissement de modèles prédictifs de toxicité radio-induite et sur l'étude de leur intérêt en cas de radiothérapie par modulation d'intensité. Six modèles NTCP ont été implémentés et leur paramètres identifiés pour la prédiction des toxicités rectale et vésicale tardives dans le cancer de la prostate. Leur capacité prédictive a été démontrée pour les deux organes. Par ailleurs, le modèle LKB a été utilisé pour la prédiction de l'œsophagite aiguë en cas de radiothérapie du cancer bronchique non à petites cellules. Ensuite, le bénéfice tiré de l'incorporation du paramètre de dose équivalent uniforme (EUD) pour la planification inverse de la radiothérapie par modulation d'intensité (IMRT) a été évalué. L'évaluation de cette approche a montré une baisse significative de la dose dans les parois vésicale et rectale. L'incorporation de plusieurs modèles biologiques dans le processus d'optimisation de l'IMRT a aussi été réalisée. Des fonctions objectif ont été établies pour les différents facteurs biologiques comme le NTCP, l'EUD et le TCP. Les résultats dosimétriques obtenus montrent la supériorité de l'optimisation basée sur des facteurs biologiques sur celle reposant uniquement sur des facteurs physiques. Enfin, les modèles NTCP classiques ont été améliorés en intégrant un paramètre radiobiologique supplémentaire, le rapport α/β. Ce rapport α/β a été identifié pour différents types de toxicité. Avec ce nouveau paramètre, les modèles NTCP peuvent finalement être étendus à des patients traités suivant différents fractionnements, les traitements hypofractionnés étant de plus en plus utilisés.
18

Zhu, Jian. "Modèles prédictifs de toxicité en radiothérapie par modulation d’intensité". Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S017/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse est centré sur l'établissement de modèles prédictifs de toxicité radio-induite et sur l’étude de leur intérêt en cas de radiothérapie par modulation d’intensité. Six modèles NTCP ont été implémentés et leur paramètres identifiés pour la prédiction des toxicités rectale et vésicale tardives dans le cancer de la prostate. Leur capacité prédictive a été démontrée pour les deux organes. Par ailleurs, le modèle LKB a été utilisé pour la prédiction de l’œsophagite aiguë en cas de radiothérapie du cancer bronchique non à petites cellules. Ensuite, le bénéfice tiré de l’incorporation du paramètre de dose équivalent uniforme (EUD) pour la planification inverse de la radiothérapie par modulation d’intensité (IMRT) a été évalué. L’évaluation de cette approche a montré une baisse significative de la dose dans les parois vésicale et rectale. L’incorporation de plusieurs modèles biologiques dans le processus d’optimisation de l’IMRT a aussi été réalisée. Des fonctions objectif ont été établies pour les différents facteurs biologiques comme le NTCP, l’EUD et le TCP. Les résultats dosimétriques obtenus montrent la supériorité de l’optimisation basée sur des facteurs biologiques sur celle reposant uniquement sur des facteurs physiques. Enfin, les modèles NTCP classiques ont été améliorés en intégrant un paramètre radiobiologique supplémentaire, le rapport α/β. Ce rapport α/β a été identifié pour différents types de toxicité. Avec ce nouveau paramètre, les modèles NTCP peuvent finalement être étendus à des patients traités suivant différents fractionnements, les traitements hypofractionnés étant de plus en plus utilisés
This thesis is focused on the predictive models of irradiation induced toxicities in intensity modulated radiotherapy. Six different NTCP models were implemented and their parameters were identified at predicting late rectal and bladder toxicities in prostate cancer. Their predictive skills have been demonstrated on both organs. Second, LKB model was used to predict the irradiation induced acute esophagitis after nun-small-cell lung cancer. Then, the benefit of using EUD in prostate cancer IMRT inverse planning was evaluated. The evaluation of the proposed approach proved that the use of EUD significantly decreased both the dose in the bladder and rectum walls. Then, the incorporation of different biological models in IMRT optimization process has been realized. Objective functions were established for different biological factors like NTCP, EUD and TCP. Obtained results show the superiority of the optimization based on biological factors over the optimization relying only on physical factors. Finally, classical NTCP models were corrected to deal with another radiobiological parameter, the α/β ratio. With this additional factor, NTCP models can be extended to predict toxicity for patients with different dose fractionation, these kinds of treatments being more and more clinically used
19

Chagneau, Pierrette. "Modélisation bayésienne hiérarchique pour la prédiction multivariée de processus spatiaux non gaussiens et processus ponctuels hétérogènes d'intensité liée à une variable prédite : application à la prédiction de la régénération en forêt tropicale humide". Montpellier 2, 2009. http://www.theses.fr/2009MON20157.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un des points faibles des modèles de dynamique forestière spatialement explicites est la modélisation de la régénération. Un inventaire détaillé du peuplement et des conditions environnementales a permis de mettre en évidence les effets de ces deux facteurs sur la densité locale de juvéniles. Mais en pratique, la collecte de telles données est coûteuse et ne peut être réalisée à grande échelle : seule une partie des juvéniles est échantillonnée et l'environnement n'est connu que partiellement. L'objectif est ici de proposer une approche pour prédire la répartition spatiale et le génotype des juvéniles sur la base d'un échantillonnage raisonnable des juvéniles, des adultes et de l'environnement. La position des juvéniles est considérée comme la réalisation d'un processus ponctuel marqué, les marques étant constituées par les génotypes. L'intensité du processus traduit les mécanismes de dispersion à l'origine de l'organisation spatiale et de la diversité génétique des juvéniles. L'intensité dépend de la survie des graines, qui dépend elle-même des conditions environnementales. Il est donc nécessaire de prédire l'environnement sur toute la zone d'étude. L'environnement, représenté par un champ aléatoire multivarié, est prédit grâce à un modèle hiérarchique spatial capable de traiter simultanément des variables de nature différente. Contrairement aux modèles existants où les variables environnementales sont considérées comme connues, le modèle de régénération proposé doit prendre en compte les erreurs liées à la prédiction de l'environnement. La méthode est appliquée à la prédiction de la régénération des juvéniles en forêt tropicale (Guyane française)
One of the weak points of forest dynamics models is the recruitment. Classically, ecologists make the assumption that recruitment mainly depends on both spatial pattern of mature trees and environment. A detailed inventory of the stand and the environmental conditions enabled them to show the effects of these two factors on the local density of seedlings. In practice, such information is not available: only a part of seedlings is sampled and the environment is partially observed. The aim of the paper is to propose an approach in order to predict the spatial distribution and the seedlings genotype on the basis of a reasonable sampling of seedling, mature trees and environmental conditions. The spatial pattern of the seedlings is assumed to be a realization of a marked point process. The intensity of the process is not only related to the seed and pollen dispersal but also to the sapling survival. The sapling survival depends on the environment; so the environment must be predicted on the whole study area. The environment is characterized through spatial variables of different nature and predictions are obtained using a spatial hierarchical model. Unlike the existing models which assume the environmental covariables as exactly known, the recruitment model we propose takes into account the error related to the prediction of the environment. The prediction of seedling recruitment in tropical rainforest in French Guiana illustrates our approach
20

Michalon, Olivier. "Modèles statistiques pour la prédiction de cadres sémantiques". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0221/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En traitement automatique de la langue, les différentes étapes d'analyse usuelles ont tour à tour amélioré la façon dont le langage peut être modélisé par les machines. Une étape d'analyse encore mal maîtrisée correspond à l'analyse sémantique. Ce type d'analyse permettrait de nombreuses avancées, telles que de meilleures interactions homme-machine ou des traductions plus fiables. Il existe plusieurs structures de représentation du sens telles que PropBank, les AMR et FrameNet. FrameNet correspond à la représentation en cadres sémantiques dont la théorie a été décrite par Charles Fillmore. Dans cette théorie, chaque situation prototypique et les différents éléments y intervenant sont représentés de telle sorte que deux situations similaires soient représentées par le même objet, appelé cadre sémantique. Le projet FrameNet est une application de cette théorie, dans laquelle plusieurs centaines de situations prototypiques sont définies. Le travail que nous décrirons ici s'inscrit dans la continuité des travaux déjà élaborés pour prédire automatiquement des cadres sémantiques. Nous présenterons quatre systèmes de prédiction, chacun ayant permis de valider une hypothèse sur les propriétés nécessaires à une prédiction efficace. Nous verrons également que notre analyse peut être améliorée en fournissant aux modèles de prédiction des informations raffinées au préalable, avec d'un côté une analyse syntaxique dont les liens profonds sont explicités et de l'autre des représentations vectorielles du vocabulaire apprises au préalable
In natural language processing, each analysis step has improved the way in which language can be modeled by machines. Another step of analysis still poorly mastered resides in semantic parsing. This type of analysis can provide information which would allow for many advances, such as better human-machine interactions or more reliable translations. There exist several types of meaning representation structures, such as PropBank, AMR and FrameNet. FrameNet corresponds to the frame semantic framework whose theory has been described by Charles Fillmore (1971). In this theory, each prototypical situation and each different elements involved are represented in such a way that two similar situations are represented by the same object, called a semantic frame. The work that we will describe here follows the work already developed for machine prediction of frame semantic representations. We will present four prediction systems, and each one of them allowed to validate another hypothesis on the necessary properties for effective prediction. We will show that semantic parsing can also be improved by providing prediction models with refined information as input of the system, with firstly a syntactic analysis where deep links are made explicit and secondly vectorial representations of the vocabulary learned beforehand
21

Asgari, Jamal. "Etude de modèles prédictifs dans un réseau de stations GPS permanentes". Observatoire de Paris (1667-....), 2005. https://hal.science/tel-02071417.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est constituée en deux parties. Les motivations de la première partie de l’étude sont : l’investigation de la modélisation spatiale et temporelle des erreurs du GPS et l’étude de leur validité, en mettant l’accent sur les applications temps réel de réseau et les traitements non différentiels. Dans la deuxième partie, il s’agit de la théorie des traitements non différentiels, le positionnement ponctuel précis (PPP), et le développement dans l’IDE de MATLAB de GPSS, logiciel de PPP. Dans cette étude l’utilisation multi-référence du réseau avec l’établissement de modèles d’interpolation des différentes erreurs affectant les mesures GPS est examinée. Les méthodes de filtrage comme le filtrage de Kalman, la collocation et le krigeage sont étudiées. L’analyse spectrale des moindres carrés est appliquée aux séries temporelles correspondant aux valeurs de TEC de quatre années. Ces analyses montrent que le spectre des données contient des périodes de 1 jour, 12 heures et 8 heures. La validité de plusieurs modèles ionosphériques est étudiée, en examinant leur efficacité sur les données GPS réelles. En outre, une nouvelle méthode d’établissement d’une grille ionosphérique pour la prévision du TEC est présentée. Les grilles prédites pourront être diffusées par internet pour des utilisations mono-fréquence du GPS. Les essais numériques d’interpolation par collocation et krigeage sont réalisés pour la partie résiduelle du délai troposphérique. L’interpolation des autres erreurs peut être effectuée de façon similaire. GPSS est un logiciel de positionnement ponctuel précis (PPP) qui utilise les données brutes au format RINEX et les éphémérides précises
This thesis consists of two parts with various objectives. The motivations of the first part of the study are : investigation of the GPS spatial and temporal error models, and study of their validity, emphasizing on the network real time applications and the non-differential processing. In the second part we studied the theory of non-differential positioning and we developed a non-differential GPS processing software in the MATLAB IDE. In this study, we investigated the multi-reference use of the network with establishment of interpolation models of the various errors affecting GPS measurements. Filtering and adjustment methods like Kalman filter, collocation, and kriging are studied. The Least Squares Spectral (LSSA) is applied to a 4 years series of TEC values. These analyses show that the data spectrum contains 1 day, 12 hours and 8 hours periods. The validity of several ionospheric models is studied, by examining their effectiveness for real data. Moreover we present a new computation method of ionospheric grids for the prediction of TEC values. The predicted grids could be diffused by Internet and be used in single frequency applications. The numerical tests of interpolation via collocation and kriging were performed for the residual part of the tropospheric delay. The interpolation of other errors may be done in a similar manner. GPSS is a Precise Point Positioning (PPP) software which uses raw data in RINEX format and precise ephemeris. It includes additional visualizations and data quality controls tools
22

Gimadiev, Timur. "Modèles prédictifs pour les paramètres cinétiques et thermodynamiques des réactions chimiques". Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAF007/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est consacré à la modélisation QSPR des propriétés cinétiques et thermodynamiques des réactions chimiques à l'aide de l'approche Graphe Condensé de Réaction (CGR). Le CGR permet de coder des structures de réactifs et de produits en un seul graphe moléculaire pour lequel des descripteurs moléculaires peuvent être générés.Une base de données contenant plus de 11000 réactions collectées manuellement a été développée puis utilisée dans la modélisation. Les modèles prédictifs ont été construits pour les constantes de vitesse de réactions Diels-Alder, SN2 et E2 ainsi que pour les constantes d'équilibre des transformations tautomères. Ils sont rendus publics via un portail WEB. Une partie de la thèse concerne une étude de mécanique quantique des réactions entre des sydnones et des alcynes contraints pour lesquels la taille du jeux de données n'était pas suffisante pour produire des modèles statistiquement significatifs
This work is devoted to QSPR modeling of kinetic and thermodynamic properties of chemical reactions using the Condensed Graph of Reaction (CGR) approach. CGR allows encoding structures of reactants and products into one sole molecular graph for which molecular descriptors can be generated. A comprehensive database containing some 11000 manually collected reactions has been developed then used in the modeling. Predictive models were built for rate constants of Diels-Alder, SN2 and E2 reaction as well as for equilibrium constants of tautomeric transformations. They are available for the users via WEB portal. A part of the thesis concerned quantum mechanics studies of reactions between sydnones and strained alkynes for which the size of the dataset was not sufficient to produce statistically meaningful models
23

Huang, He. "Développement de modèles prédictifs pour la robustesse électromagnétique des composants électroniques". Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0036/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un objectif important des études de la compatibilité électromagnétique (CEM) est de rendre les produits conformes aux exigences CEM des clients ou les normes. Cependant, toutes les vérifications de la conformité CEM sont appliquées avant la livraison des produits finis. Donc nous pourrions avoir de nouvelles questions sur les performances CEM des systèmes électroniques au cours de leur vie. Les comportements CEM de ces produits seront-ils toujours conformes dans plusieurs années ? Un produit peut-il garder les mêmes performances CEM pendant toute sa durée de vie ? Si non, combien de temps la conformité CEM peut-elle être maintenue ?L'étude à long terme de l'évolution des niveaux CEM, appelée "robustesse électromagnétique», est apparue ces dernières années. Les travaux précédents ont montré que la dégradation causée par le vieillissement pourrait induire des défaillances de système électronique, y compris une évolution de la compatibilité électromagnétique. Dans cette étude, l'évolution à long terme des niveaux CEM de deux groupes de composants électroniques a été étudiée. Le premier type de composant électronique est le circuit intégré. Les courants de hautes fréquences et les tensions induites au cours des activités de commutation de circuits intégrés sont responsables des émissions électromagnétiques non intentionnelles. En outre, les circuits intégrés sont aussi très souvent les victimes d'interférences électromagnétiques. Un autre groupe de composants est formé par les composants passifs. Dans un système électronique, les circuits intégrés fonctionnent souvent avec les composants passifs sur un même circuit imprimé. Les fonctions des composants passifs dans un système électronique, telles que le filtrage et le découplage, ont également une influence importante sur les niveaux de CEM.Afin d'analyser l'évolution à long terme des niveaux CEM des composants électroniques, les travaux présentés dans cette thèse ont pour objectif de proposer des méthodes générales pour prédire l'évolution dans les temps des niveaux de compatibilité électromagnétique des composants électroniques
One important objective of the electromagnetic compatibility (EMC) studies is to make the products compliant with the EMC requirement of the customers or the standards. However, all the EMC compliance verifications are applied before the delivery of final products. So we might have some new questions about the EMC performance during their lifetime. Will the product still be EMC compliant in several years? Can a product keep the same EMC performance during its whole lifetime? If not, how long the EMC compliance can be maintained? The study of the long-term EMC level, which is called “electromagnetic robustness”, appeared in the recent years. Past works showed that the degradation caused by aging could induce failures of electronic system, including a harmful evolution of electromagnetic compatibility. In this study, the long-term evolution of the EMC levels of two electronic component groups has been studied. The first electronic component type is the integrated circuit. The high-frequency currents and voltages during the switching activities of ICs are responsible for unintentional emissions or coupling. Besides, ICs are also very often the victim of electromagnetic interference. Another group of components is the passive component. In an electronic system, the IC components usually work together with the passive components at PCB level. The functions of passive components in an electronic system, such as filtering and decoupling, also have an important influence on the EMC levels.In order to analyze the long-term evolution of the EMC level of the electronic components, the study in this thesis tends to propose general predictive methods for the electromagnetic compatibility levels of electronic components which evolve with time
24

Litalien, David. "Persévérance aux études de doctorat (Ph.D.) : Modèle prédictif des intentions d'abandon". Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30573/30573.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Malgré une importante augmentation des effectifs universitaires de 3e cycle dans la plupart des pays de l’OCDE, les taux de diplomation demeurent faibles, estimés entre 40 et 60% pour les canadiens et les américains. À notre connaissance, les recherches qui portent attention à la persévérance aux études de doctorat sont insuffisantes et les modèles théoriques proposés pour étudier ce phénomène sont difficiles à opérationnaliser et par conséquent ont fait l’objet de très peu d’études empiriques. S’appuyant sur la théorie de l’autodétermination (Deci & Ryan, 1985, 2012a, 2012b), cette thèse a pour objectif général d’offrir une meilleure compréhension de la persévérance aux études de doctorat. Celle-ci comporte deux articles. Le premier article vise l’élaboration et la validation de l’Échelle de motivation aux études de doctorat, qui évalue cinq types de motivation (intrinsèque, intégrée, identifiée, introjectée et externe). Les résultats des deux études (N = 244 et N = 1061) soutiennent la structure factorielle de l'échelle, sa fidélité et sa validité convergente et discriminante. Le deuxième article a pour objectif l’élaboration et la validation d’un modèle des intentions d’abandonner les études de doctorat. Le modèle postule que la perception de compétence diminue les intentions d'abandon. Pour sa part, la perception de compétence est expliquée par les motivations autodéterminée et contrôlée qui, en retour, sont prédites par le soutien offert par le directeur de recherche, le corps professoral et les autres étudiants de cycles supérieurs en ce qui a trait aux besoin psychologiques de l’étudiant. Deux études ont été réalisées dans cet article : 1) une étude rétrospective comparative entre des étudiants non persévérants et des étudiants diplômés (N = 422) et 2) une étude prospective évaluant les intentions d’abandon chez des étudiants inscrits sur deux sessions et (N = 1060). Dans l’ensemble, les résultats des deux études convergent et soutiennent le modèle proposé. Plus précisément, la perception de compétence semble être la pierre angulaire de la persévérance aux études de doctorat, étant prédite par les motivations autodéterminée et contrôlée et le soutien du directeur de recherche. Les implications théoriques, méthodologiques et pratiques sont abordées et des pistes de recherches futures sont proposées.
In most OECD countries, there is a significant increase in doctoral studies enrollment. Nevertheless, completion rates remain low and are estimated between 40 and 60% for Canadians and Americans. To our knowledge, there is a lack of research on doctoral student’s persistence and available theoretical models to comprehend this phenomenon are difficult to operationalize. Based on self-determination theory (Deci & Ryan, 1985, 2012a, 2012b), the purpose of this dissertation is to provide a general understanding of doctoral studies persistence. It includes two articles. The first article aims to develop and validate a scale to assess five types of regulation (intrinsic, integrated, identified, introjected, and external) toward PhD studies. Results of two studies (N = 244 and N = 1061) support the scale’s reliability, factor structure, and convergent and discriminant validity. The purpose of the second article is to develop and validate a predictive model of dropout intentions. This model posits that perceived competence decreases dropout intentions, and that perceived competence is explained by autonomous and controlled regulations, which are in turn predicted by perceived psychological needs support provided by the student’s advisor, faculties as well as other graduate students. A two-step approach was used: 1) a retrospective comparison of completers and noncompleters (N = 422), and 2) a prospective examination of enrolled PhD students over two semesters to assess dropout intentions (N = 1060). Overall, the findings of the two studies are similar and support the proposed model. Specifically, perceived competence appears to be the cornerstone of doctoral studies persistence intentions, and is predicted mainly by autonomous and controlled regulations and advisor support. Theoretical, methodological, and practical implications are discussed and directions for further research are proposed.
Tableau d'honneur de la FÉSP
25

Charland, Eric. "Modèles de prédiction de krachs boursiers issus de bulles économiques". Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4901.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'effondrement des marchés boursiers est un phénomène de plus en plus fréquent et affecte plus ou moins directement la population entière de la planète. Il est donc primordial de développer des outils afin de modéliser et de prévoir de tels événements. Mais pourquoi alors n'avons-nous pas encore proposé de solution ultime à un problème aussi important? Quelles sont les problématiques principales qui nous en empêchent? C'est dans cet ordre d'idées que nous exposerons divers modèles proposés par des experts de référence dans leurs domaines respectifs et que nous identifierons les diverses problématiques qui surviennent lors de l'étude de ces modèles. Une étude plus approfondie de l'un des modèles actuels les plus présomptueux sera effectuée : il s'agit du modèle LPPL (ou Log periodic power-law), suggéré pour la première fois en 1996 par Sornette, Johansen et Bouchaud [60]. Ces derniers suggèrent notamment que les prix d'une action en présence d'une bulle économique soient modélisés selon la formule : lnp(t) = A + B(t[indice inférieur c] - t)[indice supérieur beta]{1 +C cos([omega]ln(t[indice inférieur c] - t) + [phi])}. Enfin, un dernier chapitre sera consacré à la correction d'une prépublication récemment soumise à arXiv par Lin et Sornette [32] qui propose deux nouveaux modèles purement stochastiques. Note intéressante : le premier de ces modèles englobe sous forme de cas particulier la formule de Black-Scholes.
26

Bonneu, Michel. "Choix de modèles linéaires généralisés en vue de la prédiction". Toulouse 3, 1986. http://www.theses.fr/1986TOU30103.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre du modèle linéaire généralisé, on définit un critère de prédiction par analogie au critère d'information d'akaike, base sur l’espérance mathématique de l'information de kullback-leibler entre la vraie densité et une pseudo densité estimée. Ce critère a pour objectif de déterminer un pseudo modèle de prédiction, défini par un sous ensemble de variables explicatives le plus réduit possible et une fonction de lien au sens de Nelder. L’estimation de ce critère conduit à définir dans le cas du modèle linéaire gaussien une statistique qui a une expression analogue aux estimateurs de l'erreur quadratique moyenne de prédiction proposée par o. Bunke et b. Droge. Dans les autres cas, un estimateur simule du bootstrap ou un calcul asymptotique est proposé pour répondre à l'estimation du critère. Ces deux situations sont illustrées par deux applications: une première relative à une anova dans un plan complet déséquilibré et une seconde relative au cas de réponses dichotomiques dans le cadre binominal, qui m et en œuvre la méthode de simulation du bootstrap au moyen du logiciel Glim et qui utilise des variables construites au sens de atkinson
27

Rolland, Chloé. "Modèles orientés objet pour une meilleure prédiction du trafic internet". Paris 6, 2008. http://www.theses.fr/2008PA066657.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’intéresse à la modélisation du trafic Internet. Elle propose une approche dont le but est de dépasser les limites des modèles traditionnels et des modèles de type boîte noire, afin de concevoir des modèles de trafic structurels, alliant précision et simplicité d'utilisation. Elle s'intéresse en premier lieu à un modèle hiérarchique, Basic LiTGen, orienté utilisateur et application, où les entités de trafic considérées sont les sessions, les pages, les objets et les paquets. Une analyse en ondelettes permet d'aiguiller l'analyse sur l'organisation des paquets dans les objets et de proposer une structure originale s'imbriquant au niveau paquet du modèle, permettant de reproduire la dépendance à long terme observée de manière réaliste. Le modèle ainsi obtenu, Extended LiTGen, est très précis, mais la structure introduite le rend aussi complexe. Une deuxième étape s'intéresse alors à simplifier le modèle. Elle se concentre sur la structure en rafales des paquets dans les objets, et propose un modèle simple pour la modéliser, Bursts LiTGen, reproduisant finement la dépendance à long terme observée. Les modèles proposés, Extended et Bursts LiTGen, reproduisent des paramètres de performance réalistes et peuvent être utilisés dans le cadre de la prédiction de trafic.
28

Cortet, Marion. "Construction et validation des modèles de prédiction : étude des utilités". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10197.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La médecine est demandeuse de prédictions. Cette question de la prédiction se pose à différents moments de la prise en charge du patient, au moment du diagnostic, au moment de l'évaluation du pronostic et au moment du suivi, pour prendre les meilleures décisions possibles en termes de choix d'examens complémentaires et de choix de thérapeutique. La prédiction permet d'apporter une information au médecin et au patient pour prendre la décision. Pour construire ces modèles de prédiction, on dispose de bases de données qui nous permettent d'évaluer l'association entre des données cliniques ou biologiques et la probabilité de survenue d'un évènement. Pour quantifier ces associations, on utilise des modèles de régression logistique qui sont estimés d'après la méthode du maximum de vraisemblance. Pour évaluer ces modèles, on dispose de différents critères, qui quantifient leur adéquation, leur capacité de discrimination, leur calibration. Ces modèles vont nous permettre de prendre une décision. Les erreurs de prédiction vont mener à des erreurs de décision. Les conséquences de ces décisions sont quantifiables grâce à la théorie des utilités. C'est donc un critère quantifiant l'utilité du modèle qui nous permet de choisir le modèle le plus utile. La construction de modèles de prédiction est particulièrement importante dans le domaine clinique de l'obstétrique. En effet, il est important dans le cas des hémorragies de la délivrance de prévenir l'aggravation de la situation, et donc de distinguer les patientes qui vont s'aggraver très rapidement. Le taux de fibrinogène a été étudié, comme prédicteur d'une évolution grave de l'hémorragie. Les variables cliniques disponibles au moment du diagnostic ont ensuite été étudiées. Dans la situation de la rupture prématurée des membranes, il existe un choix à faire entre deux décisions qui induisent une morbidité néonatale et maternelle : la naissance prématurée et le risque de chorioamniotite. Des marqueurs du risque de chorioamniotite pourraient donc faciliter la prise de décision en augmentant l'information pour le clinicien. De plus en plus de modèles de prédiction sont développés dans toutes les situations cliniques. Il faut rester critique vis-à-vis de ces modèles. Leur évaluation doit tenir compte de leur utilisation, et doit donc tenir compte de leur utilité en situation de prise de décision
Medicine asks for prediction. Prediction is needed at different point in the management of a patient. To take the best decision as possible for complementary exams, or therapeutics. Prediction gives an information to the practitioner and the patient, to take a decision. To build these prediction models, we have data bases. The association between clinical or biological data and the outcome probability can be estimated thanks to these data bases. To measure these associations, logistic regression models are used. They are estimated with maximum likelihood method. To evaluate these models, different criteria exist. These criteria quantify adequacy, discrimination capacity, calibration. These models help to take a decision. Prediction errors lead to decision errors. Consequences of these decisions are measurable with utility theory. Therefore, it is a criteria that measure utility of a model that enables us to select the most useful model. Prediction model building is an important point in obstetrics. Indeed, in case of postpartum haemorrhage, it is important to prevent worsening of the clinical situation, and therefore, to identify patient who will worsen fastly. Fibrinogen level was studied as a predictor of severe postpartum haemorrhage. Clinical variables availables at diagnosis of postpartum haemorrhage was then studied. In case of preterm premature rupture of membranes, there is a decision to take, between two choices that may lead to maternal of neonatal morbidity: preterm birth and chorioamnionitis risk with pregnancy continuation. Markers of chorioamnionitis risk may help the practitioners for decision making, by increasing the information. More and more prediction models are developed in all clinical situations. We must be critical before using these models in real life. Their evaluation must take into account their use, and therefore, their utility in case of decision making
29

Litalien, David. "Persévérance aux études de doctorat (Ph. D.) : modèle prédictif des intentions d'abandon". Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25099.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014.
Malgré une importante augmentation des effectifs universitaires de 3e cycle dans la plupart des pays de l’OCDE, les taux de diplomation demeurent faibles, estimés entre 40 et 60% pour les canadiens et les américains. À notre connaissance, les recherches qui portent attention à la persévérance aux études de doctorat sont insuffisantes et les modèles théoriques proposés pour étudier ce phénomène sont difficiles à opérationnaliser et par conséquent ont fait l’objet de très peu d’études empiriques. S’appuyant sur la théorie de l’autodétermination (Deci & Ryan, 1985, 2012a, 2012b), cette thèse a pour objectif général d’offrir une meilleure compréhension de la persévérance aux études de doctorat. Celle-ci comporte deux articles. Le premier article vise l’élaboration et la validation de l’Échelle de motivation aux études de doctorat, qui évalue cinq types de motivation (intrinsèque, intégrée, identifiée, introjectée et externe). Les résultats des deux études (N = 244 et N = 1061) soutiennent la structure factorielle de l'échelle, sa fidélité et sa validité convergente et discriminante. Le deuxième article a pour objectif l’élaboration et la validation d’un modèle des intentions d’abandonner les études de doctorat. Le modèle postule que la perception de compétence diminue les intentions d'abandon. Pour sa part, la perception de compétence est expliquée par les motivations autodéterminée et contrôlée qui, en retour, sont prédites par le soutien offert par le directeur de recherche, le corps professoral et les autres étudiants de cycles supérieurs en ce qui a trait aux besoin psychologiques de l’étudiant. Deux études ont été réalisées dans cet article : 1) une étude rétrospective comparative entre des étudiants non persévérants et des étudiants diplômés (N = 422) et 2) une étude prospective évaluant les intentions d’abandon chez des étudiants inscrits sur deux sessions et (N = 1060). Dans l’ensemble, les résultats des deux études convergent et soutiennent le modèle proposé. Plus précisément, la perception de compétence semble être la pierre angulaire de la persévérance aux études de doctorat, étant prédite par les motivations autodéterminée et contrôlée et le soutien du directeur de recherche. Les implications théoriques, méthodologiques et pratiques sont abordées et des pistes de recherches futures sont proposées.
In most OECD countries, there is a significant increase in doctoral studies enrollment. Nevertheless, completion rates remain low and are estimated between 40 and 60% for Canadians and Americans. To our knowledge, there is a lack of research on doctoral student’s persistence and available theoretical models to comprehend this phenomenon are difficult to operationalize. Based on self-determination theory (Deci & Ryan, 1985, 2012a, 2012b), the purpose of this dissertation is to provide a general understanding of doctoral studies persistence. It includes two articles. The first article aims to develop and validate a scale to assess five types of regulation (intrinsic, integrated, identified, introjected, and external) toward PhD studies. Results of two studies (N = 244 and N = 1061) support the scale’s reliability, factor structure, and convergent and discriminant validity. The purpose of the second article is to develop and validate a predictive model of dropout intentions. This model posits that perceived competence decreases dropout intentions, and that perceived competence is explained by autonomous and controlled regulations, which are in turn predicted by perceived psychological needs support provided by the student’s advisor, faculties as well as other graduate students. A two-step approach was used: 1) a retrospective comparison of completers and noncompleters (N = 422), and 2) a prospective examination of enrolled PhD students over two semesters to assess dropout intentions (N = 1060). Overall, the findings of the two studies are similar and support the proposed model. Specifically, perceived competence appears to be the cornerstone of doctoral studies persistence intentions, and is predicted mainly by autonomous and controlled regulations and advisor support. Theoretical, methodological, and practical implications are discussed and directions for further research are proposed.
30

Badr, Georges. "Modèle théorique et outil de simulation pour une meilleure évaluation des claviers logiciels augmentés d'un système de prédiction de mots". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1549/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les claviers logiciels se sont démocratisés pour rendre possible la saisie de textes en mobilité sur des dispositifs dépourvus de claviers physiques tels que les téléphones portables nouvelle génération. Cependant, ces claviers présentent plusieurs inconvénients comme la lenteur de la saisie et la fatigue engendrées pour les utilisateurs déficients moteurs. La solution intuitive était d'allier ces logiciels à des listes contenant les mots susceptibles de continuer la saisie d'un mot initié par l'utilisateur. Bien que ces listes, dites listes de prédiction, réduisent le nombre de clics et le nombre d'opérations, la vitesse de saisie de l'utilisateur a diminué. Une expérimentation outillée d'un système de suivi du regard a ainsi permis de déterminer des " stratégies " de fonctionnement de l'utilisateur face à une liste de mots. Ces résultats ont ainsi permis d'affiner les modèles de prédiction de manière à réduire l'écart séparant les performances prédites des performances réellement enregistrées. A partir des constats effectués lors de la première expérimentation, nous proposons deux variantes de l'utilisation des listes de prédiction de mots. La première propose un nouveau moyen d'interagir avec la liste de mots et permet ainsi de maximiser l'utilisation de celle-ci. La seconde évalue un repositionnement de la liste de mots de manière à réduire le nombre de mouvements oculaires vers la liste. Ces deux évolutions, évaluées théoriquement puis au moyen d'une expérimentation utilisateur, permettent ainsi d'améliorer les performances de saisie par rapport à une liste de prédiction de mots classique
Predictive model and simulation tool for a best evaluation of soft keyboard augmented by words prediction list The software keyboards are used to enable text input in mobility and for devices without physical keyboards, such as the new generation of mobile phones. However, these keyboards have several drawbacks such as slowness text entry and fatigue generated for motor impaired users. The solution was to combine software keyboard to lists containing the words likely to continue the word introduced by the user. While these lists, so-called prediction lists, reduce the number of clicks and the number of operations, the speed of user input has decreased. An experiment with an eye tracking system has identified the "strategies" of the user while using and searching a list of words. These results were helpful to refine the prediction models in order to reduce the gap between the performance predicted and the performance actually recorded. Based on observations made during the first experiment, we propose two variants of the use of word prediction list. The first proposes a new way to interact with the list of words and allows maximum use of it. The second evaluates a repositioning of the list of words in order to reduce the number of eye movements to the list. These two propositions were theoretically and experimentally evaluated by users. These software can improve the input performances compared with a classic word prediction list
31

Cao, Chao. "Compression d'objets 3D représentés par nuages de points". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec la croissance rapide du contenu multimédia, les objets 3D deviennent de plus en plus populaires. Ils sont généralement modélisés sous forme de maillages polygonaux complexes ou de nuages de points 3D denses, offrant des expériences immersives dans différentes applications multimédias industrielles et grand public. La représentation par nuages de points, plus facile à acquérir que les maillages, a suscité ces dernières année un intérêt croissant tant dans le monde académique que commercial. Un nuage de points est par définition un ensemble de points définissant la géométrie de l’objet et les attributs associés (couleurs, textures, les propriétés des matériaux, etc.). Le nombre de points dans un nuage de points peut aller d'un millier, pour représenter des objets relativement simples, jusqu'à des milliards pour représenter de manière réaliste des scènes 3D complexes. Ces énormes quantités de données posent de grands défis liés à la transmission, au traitement et au stockage des nuages de points 3D. Ces dernières années, de nombreux travaux ont été dédiés principalement à la compression de maillages, tandis qu’un nombre plus réduit de techniques s’attaquent à la problématique de compression de nuages de points 3D. L’état de l’art fait ressortir deux grandes familles approches principales: une première purement géométrique, fondée sur une décomposition en octree et une seconde hybride, exploitant à la fois la projection multi-vues de la géométrie et le codage vidéo. La première approche permet de préserver une information de géométrie 3D précise mais contient une faible cohérence temporelle. La seconde permet de supprimer efficacement la redondance temporelle mais est pénalisé par une diminution de la précision géométrique, liée au processus de projection 3D/2D. Ainsi, le compromis entre efficacité de compression et précision des objets reconstruit doit être optimisé. Premièrement, une segmentation adaptative par octree a été proposée pour regrouper les points avec différentes amplitudes de mouvement dans des cubes 3D. Ensuite, une estimation de mouvement est appliquée à ces cubes en utilisant une transformation affine. Des gains en termes de performances de distorsion de débit (RD) ont été observés dans des séquences avec des amplitudes de mouvement plus faibles. Cependant, le coût de construction d'un octree pour le nuage de points dense reste élevé tandis que les structures d'octree résultantes contiennent une mauvaise cohérence temporelle pour les séquences avec des amplitudes de mouvement plus élevées. Une structure anatomique a ensuite été proposée pour modéliser le mouvement de manière intrinsèque. À l'aide d'outils d'estimation de pose 2D, le mouvement est estimé à partir de 14 segments anatomiques à l'aide d'une transformation affine. De plus, nous avons proposé une nouvelle solution pour la prédiction des couleurs et discuté du codage des résidus de la prédiction. Il est montré qu'au lieu de coder des informations de texture redondantes, il est plus intéressant de coder les résidus, ce qui a entraîné une meilleure performance RD. Les différentes approches proposées ont permis d’améliorer les performances des modèles de test V-PCC. Toutefois, la compression temporelle de nuages de points 3D dynamiques reste une tâche complexe et difficile. Ainsi, en raison des limites de la technologie d'acquisition actuelle, les nuages acquis peuvent être bruyants à la fois dans les domaines de la géométrie et des attributs, ce qui rend difficile l'obtention d'une estimation précise du mouvement. Dans les études futures, les technologies utilisées pour les maillages 3D pourraient être exploitées et adaptées au cas des nuages de points non-structurés pour fournir des informations de connectivité cohérentes dans le temps
With the rapid growth of multimedia content, 3D objects are becoming more and more popular. Most of the time, they are modeled as complex polygonal meshes or dense point clouds, providing immersive experiences in different industrial and consumer multimedia applications. The point cloud, which is easier to acquire than mesh and is widely applicable, has raised many interests in both the academic and commercial worlds.A point cloud is a set of points with different properties such as their geometrical locations and the associated attributes (e.g., color, material properties, etc.). The number of the points within a point cloud can range from a thousand, to constitute simple 3D objects, up to billions, to realistically represent complex 3D scenes. Such huge amounts of data bring great technological challenges in terms of transmission, processing, and storage of point clouds.In recent years, numerous research works focused their efforts on the compression of meshes, while less was addressed for point clouds. We have identified two main approaches in the literature: a purely geometric one based on octree decomposition, and a hybrid one based on both geometry and video coding. The first approach can provide accurate 3D geometry information but contains weak temporal consistency. The second one can efficiently remove the temporal redundancy yet a decrease of geometrical precision can be observed after the projection. Thus, the tradeoff between compression efficiency and accurate prediction needs to be optimized.We focused on exploring the temporal correlations between dynamic dense point clouds. We proposed different approaches to improve the compression performance of the MPEG (Moving Picture Experts Group) V-PCC (Video-based Point Cloud Compression) test model, which provides state-of-the-art compression on dynamic dense point clouds.First, an octree-based adaptive segmentation is proposed to cluster the points with different motion amplitudes into 3D cubes. Then, motion estimation is applied to these cubes using affine transformation. Gains in terms of rate-distortion (RD) performance have been observed in sequences with relatively low motion amplitudes. However, the cost of building an octree for the dense point cloud remains expensive while the resulting octree structures contain poor temporal consistency for the sequences with higher motion amplitudes.An anatomical structure is then proposed to model the motion of the point clouds representing humanoids more inherently. With the help of 2D pose estimation tools, the motion is estimated from 14 anatomical segments using affine transformation.Moreover, we propose a novel solution for color prediction and discuss the residual coding from prediction. It is shown that instead of encoding redundant texture information, it is more valuable to code the residuals, which leads to a better RD performance.Although our contributions have improved the performances of the V-PCC test models, the temporal compression of dynamic point clouds remains a highly challenging task. Due to the limitations of the current acquisition technology, the acquired point clouds can be noisy in both geometry and attribute domains, which makes it challenging to achieve accurate motion estimation. In future studies, the technologies used for 3D meshes may be exploited and adapted to provide temporal-consistent connectivity information between dynamic 3D point clouds
32

Legrand, Mathias. "Modèles de prédiction de l'interaction rotor/stator dans un moteur d'avion". Phd thesis, Ecole centrale de nantes - ECN, 2005. http://tel.archives-ouvertes.fr/tel-00011631.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux s'inscrivent dans le cadre d'un partenariat entre SNECMA (Société Nationale d'Etude et de Construction de Moteurs d'Avion), l'Equipe Structures et Simulations du laboratoire GeM à l'Ecole Centrale de Nantes et le Département de Vibrations et d'Acoustique de l'Université du Michigan, avec pour objectif le développement de modèles de prédiction d'interaction rotor/stator dans un moteur d'avion. En effet, afin de rester un acteur compétitif, un motoriste a un objectif principal : augmenter le rendement d'un moteur d'avion en accord avec les normes en vigueur. La minimisation du jeu entre l'extrémité des aubes des différents composants en rotation et le carter qui leur fait face est une réponse à cette contrainte. Malheureusement, la diminution de cette distance augmente sensiblement les possibilités de contact entre les deux parties. Les conséquences d'un tel phénomène pouvant être dramatiques pour le moteur, le bureau d'études doit concevoir des structures capables de résister à ces différentes sollicitations dynamiques : il est donc primordial de comprendre l'origine et l'action de ces forces de contact pour réduire de façon optimale le jeu entre les deux parties sans compromettre la sécurité des passagers. Dans cette étude, nous nous concentrons plus particulièrement sur l'interaction entre deux modes de vibration à diamètres, caractéristiques des structures à symétrie axiale, pendant laquelle les structures se touchent légèrement pour atteindre des régimes permanents potentiellement dangereux. A cet effet, trois modèles de complexité croissante sont proposés et analysés, en plus de deux méthodes de résolution complémentaires développées dans les domaines fréquentiel et temporel. Ces trois modèles prédisent une vitesse de rotation critique au-dessus de laquelle, sous certaines conditions qui restent difficiles à déterminer, les amplitudes de vibrations deviennent importantes. Ils ont aussi permis une meilleure compréhension du phénomène d'interaction modale et de ses caractéristiques physiques.
33

Jungman, Elsa. "Développement d'un modèle prédictif de la pénétration percutanée par approches chromatographiques et spectroscopiques". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00819391.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le stratum corneum (SC), couche supérieure de l'épiderme, est composé principalement de cornéocytes entourés d'une matrice lipidique. Cette structure particulière confère au SC son rôle de barrière et protège l'organisme de la perte en eau, de la pénétration de substances exogènes et de l'irradiation ultra-violette (UV). La matrice lipidique du SC est constituée de trois lipides majeurs : les céramides, les acides gras et le cholestérol organisés en phase cristalline. Cette matrice est la principale voie de pénétration des molécules exogènes à travers la peau. L'estimation de l'absorption cutanée pour l'analyse du risque des produits cosmétiques est basée sur les recommandations de l'Organisation de Coopération et de Développement Économiques (OCDE) qui prend en compte les propriétés physicochimiques des molécules i.e. Log Pow (lipophilie) et MW (masse moléculaire). En effet, l'OCDE considère une absorption de 100% pour une molécule ayant une MW inférieure à 500g/mol et un Log Pow compris en -1 et +4. En dehors de ces valeurs, l'OCDE applique une estimation de 10%. Hors, cette estimation est bien souvent loin de la réalité et a besoin d'être affinée. Notre travail s'est focalisé sur le développement d'un critère d'évaluation de la pénétration cutanée afin de moduler les données de l'OCDE par trois approches différentes : chromatographie d'affinité, spectroscopie de fluorescence et microspectroscopie infra-rouge à transformée de Fourier (FTIR) avec une source synchrotron. Etant donné que les propriétés barrières de la peau sont étroitement liées à la composition en céramides du SC, les méthodes développées en chromatographie d'affinité et spectroscopie de fluorescence se sont focalisées sur l'interaction céramide-molécules. Un critère prédictif de la pénétration percutanée a été défini avec chacune de ces méthodes :  et I. La troisième méthodologie a consisté à développer un autre critère (Sindex) par microspectroscopie FTIR avec une source synchrotron. La distribution cutanée des molécules a été suivie sur coupes microtomées de biopsies humaines. A partir de Sindex, une cartographie prédictive de la pénétration percutanée des molécules a été établie. Notre design expérimental comprenait des molécules (filtres UV, conservateurs, actifs cosmétiques) avec des Log Pow et MW variés (cf annexe 1). La pénétration cutanée de ces molécules a été étudiée avec une méthode de référence : cellules de Franz couplées à la chromatographie. Ces données de référence ont servi à valider les modèles et critères prédictifs développés. Ce travail a permis d'explorer de nouvelles pistes pour l'étude prédictive de la pénétration percutanée et de développer ainsi de nouveaux critères. Utilisés en complément des propriétés physicochimiques des molécules, ces nouveaux critères permettent d'affiner l'estimation de la pénétration cutanée de molécules exogènes pour l'analyse du risque.
34

Raad, Ali. "Modèle prédictif à base d'approches qualitatives pour la contribution à la radiothérapie adaptative". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10166.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le sujet de thèse s’inscrit dans le cadre de la lutte contre le cancer. La radiothérapie externe est une technique de traitement de cibles tumorales par des particules radioactives, sous guidage d’un système d’imagerie. L’efficacité de ce traitement à ciblage macroscopique dépend en partie de l’évolution de la cible biologique au cours du traitement, qui se programme sur plusieurs séances. Dans notre travail, nous nous sommes concentrés sur l’évolution temporelle de la cible biologique séance par séance. Le but est d’estimer l’espace couvert par son mouvement, et permettant de prédire le positionnement futur de la cible et corriger ou adapter le plan de traitement. Notre cible biologique microscopique dans le cas du cancer ORL est décrite par la glande parotide qui est sensible aux radiations. L’objectif est de minimiser l’accessibilité des rayons à cet organe lorsque la cible tumorale se trouve dans sa périphérie. Nous avons proposé deux méthodes de reconstruction en 3D de la parotide, à savoir B-Spline de Bézier bi-cubique et Marching cubes. Une fois la reconstruction est effectuée, le volume de la glande parotide, à chaque session est calculé. Une zone de sécurité autour de la glande parotide a été définie. Enfin, une classification des patients a été réalisée en se basant sur le dosage associé au traitement. A un niveau macroscopique, nous avons développé une approche d'aide à la décision pour affiner la position relative du patient sur la table de traitement. Cette approche est basée sur la modélisation par réseaux de neurones et spécifiquement MLP et RBF. La performance entre ces deux techniques a été analysée, suivant les positionnements géométriques des patients
The thesis subject is defined in the framework of the fight against cancer. External radiation therapy is a technical treatment of tumor targets by radioactive particles, under guidance of an imaging system. The effectiveness of this macroscopic targeting treatment depends in part on the evolution and movement of the biological target during the treatment, which is planned over several sessions. In our work, we focused to the temporal evolution of the biological target session by session. The goal is to estimate the space covered by the target movement in each session, and to predict the future position of the target and thus to correct or adapt the treatment plan. Our microscopic biological target in the case of head and neck cancer is described by the parotid gland which is sensitive to the radiation. The objective is to minimize avoid radiating the parotid, when the tumor is in its periphery. We proposed two 3D reconstruction methods of the parotid, namely B-Spline Bezier bi-cubic and Marching cubes. Once the reconstruction is performed, the volume of the parotid gland, at each session of treatment is calculated. A safety zone around the parotid gland was defined. Finally, a classification of the patients was performed based on the associated dose for the treatment.At a macroscopic level, we have developed a decision-support approach to refine the relative position of the patient on the treatment table. This approach is based on a modeling of Neural Network and especially MLP and RBF. The performance between two neuronal approximation techniques was analyzed, according to the geometrical positioning of patients
35

Ulvé, Ronan. "Caractérisation moléculaire et cellulaire des lymphomes canins : modèles précliniques prédictifs des lymphomes homologues humains". Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1B045.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les lymphomes sont des cancers parmi les plus fréquents chez l’Homme et le chien. Ils présentent de fortes homologies du point de vue clinique, histologique et de la réponse aux traitements. Dans le contexte actuel, les méthodes de séquençage de nouvelles générations (NGS) permettent l’identification de nombreuses altérations génétiques nécessaires pour le diagnostic, le pronostic et le développement de thérapies ciblées. Pourtant, le développement de nouvelles molécules rencontre une forte proportion d’échec lors des études cliniques. Ce constat est en partie dû à l’utilisation de modèles non représentatifs de la maladie telle qu’elle se présente chez l’Homme. Chez le chien, la sélection artificielle imposée par l’homme fait qu’aujourd’hui, de nombreuses races présentent des prédispositions aux lymphomes et même à certains sous-types. Cette caractéristique fait du chien un modèle spontané pertinent aussi bien pour l’étude des bases génétiques des lymphomes que pour le développement de nouvelles molécules pour l’Homme via des essais cliniques vétérinaires. Mon travail de thèse a consisté à caractériser génétiquement les lymphomes canins pour proposer des modèles prédictifs des lymphomes homologues humains. Suite à une étape de collecte d’un grand nombre de prélèvements de chiens atteints de lymphomes, j’ai travaillé sur l’amélioration d’un test de diagnostic des sous-types B ou T de lymphomes basé sur la technique d’amplification appelé PARR. J’ai également montré une transmission familiale de lymphomes chez le Bouvier bernois, ce qui m’a permis d’effectuer une étude d’association génétique (GWAS) comportant 63 chiens atteints et 167 indemnes. J’ai pu ainsi identifier plusieurs loci sur les chromosomes 9, 15 et 23, ce dernier incluant le gène MYD88 connu pour être impliqué dans les lymphomes humains. J’ai également découvert par différentes approches NGS (RNA-Seq et Capture ciblée) des altérations génétiques récurrentes partagées entre l’Homme et le chien. Parmi celles-ci, j’ai identifié des fusions de gènes entre des immunoglobulines et les cyclines D : 3 cas pour CCND3 et 1 cas pour CCND1. J’ai également retrouvé la forte récurrence d’altérations impliquant les oncogènes KDR, MYC ou UBR5 ainsi que les gènes suppresseurs de tumeur POT1, PTEN ou TP53. Ces évènements étant associés chez l’Homme à des lymphomes agressifs ou résistants aux traitements, les lymphomes canins présentent donc un intérêt majeur en tant que modèle spontané. Enfin, j’ai mis en place des essais de molécules in vitro, réalisables à partir de la lignée CLBL-1 ou de cultures primaires caractérisées par NGS. Cette étape préliminaire permet d’envisager des essais cliniques vétérinaires avec des chiens de propriétaire, atteints de lymphomes. Cette démarche s’intègre dans le concept « One health » dont l’objectif est de faire bénéficier ces recherches à la médecine humaine et vétérinaire
Lymphomas are among the most common cancers in humans and dogs. They show strong clinical, histological and response homologies to treatments. In the current context, new generation sequencing (NGS) methods allow identification of many genetic alterations needed for the diagnosis, prognosis and development of targeted therapies. However, the development of new molecules encounters a high proportion of failure in clinical studies. This finding is due in part to the use of models that are not reflect all aspects of the disease occurring in humans. In dogs, artificial selection done by humans means that today, many breeds have predispositions to lymphomas and even to certain subtypes. This characteristic makes the dog a relevant spontaneous model both for the study of the genetic basis of lymphomas and for the development of new molecules for humans with veterinary clinical trials. My thesis work consisted in the genetic characterization of canine lymphomas to propose predictive models of human homologous lymphomas. Following a collection step of a large number of lymphomas cases, I worked on the improvement of a diagnostic test to subtype B or T lymphomas based on amplification called PARR. I also showed a familial transmission of lymphomas in the Bernese Mountain Dog, which allows me to perform a genome-wide association study (GWAS) comprising 63 affected dogs and 167 healthy dogs. I identified several loci on chromosomes 9, 15 and 23, the last one including the MYD88 gene known to be involved in human lymphomas. I have also discovered by different NGS approaches (RNA-Seq and Capture targeted) recurrent genetic alterations shared between the Man and the dog. Among these, I have identified gene fusions between immunoglobulins and cyclins D: 3 cases for CCND3 and 1 case for CCND1. I also found strong recurrences of alterations involving the oncogenes KDR, MYC or UBR5 as well as the tumor suppressor genes POT1, PTEN or TP53. Since these events are associated with aggressive or resistant lymphomas in humans, canine lymphomas are thus of major interest as a spontaneous model. Finally, I have carried out in vitro tests of molecules, which can be carried out from the CLBL-1 cell line or from primary cell cultures characterized by NGS. This preliminary step allows us to consider veterinary clinical trials with owners dogs with lymphomas. This approach is part of the "One Health" concept, which aims to bring this research to human and veterinary medicine
36

Khanjari, Miyaneh Eynollah. "Un cadre générique pour les modèles globaux fondés sur les motifs locaux". Thesis, Tours, 2009. http://www.theses.fr/2009TOUR4020/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La construction de modèles globaux est une tâche centrale pour l'extraction de connaissances dans les bases de données. En particulier, les modèles globaux fondés sur des motifs locaux tels que les règles d'association apportent une description compréhensive et succincte des données. La multiplicité des points de vue, des objectifs et des données engendre une grande diversité de modèles et de leurs méthodes de construction. Cette thèse propose un cadre unificateur pour la formalisation et la manipulation de modèles globaux fondés sur les motifs locaux. Dans ce cadre, de très nombreuses méthodes de construction existantes en classification supervisée et non-supervisée, se modélisent simplement de manière déclarative. Nous apportons un algorithme générique permettant à l'utilisateur de s'affranchir des spécificités techniques, notamment lié à la forme des motifs locaux mis en jeux ou à leur extraction. Par ailleurs, nous proposons également des optimisations de cet algorithme en fonction des paramètres. Enfin, notre cadre en isolant les principales fonctionnalités des méthodes de construction existantes en facilite la comparaison
The construction of global models is a significant field of Knowledge Discovery in Databases. In particular, global models based on local patterns such as association rules provide a succinct and understandable description of data. The numerous viewpoints, aims and domain-specific data require a wide range of global models and associated construction methods. This thesis proposes a generic framework for formalizing and manipulating global models based on local patterns. In this framework, a lot of the existing construction methods dedicated to classification, clustering and summarization are easily formulated in a declarative way. We provide a generic algorithm enabling to leave aside technical aspects, for instance the kind of used patterns and associated mining approach. Moreover, we also optimize this algorithm according to the specified parameters. Finally, our framework facilitates the comparison of existing construction methods by highlighting their main features
37

Marchesseau, Stéphanie. "Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00820082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le " Reduced Order Unscented Kalman Filtering " est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche.
38

Marchesseau, Stephanie. "Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques". Thesis, Paris, ENMP, 2013. http://www.theses.fr/2012ENMP0082/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le « Reduced Order Unscented Kalman Filtering » est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche
The clinical understanding and treatment of cardiovascular diseases is highly complex. For each patient, cardiologists face issues in determining the pathology, choosing a therapy or selecting suitable patients for the therapy. In order to provide additional guidance to cardiologists, many research groups are investigating the possibility to plan such therapies based on biophysical models of the heart. The hypothesis is that one may combine anatomical and functional data to build patient-specific cardiac models that could have the potential to predict the benefits of different therapies. Cardiac electromechanical simulations are based on computational models that can represent the heart geometry, motion and electrophysiology patterns during a cardiac cycle with sufficient accuracy. Integration of anatomical, mechanical and electrophysiological information for a given subject is essential to build such models.In this thesis, we first introduce the geometry, kinematics and electrophysiology personalizations that are necessary inputs to mechanical modeling. We propose to use the Bestel-Cl'ement-Sorine electromechanical model of the heart, which is sufficiently accurate without being over-parametrized for the available data. We start by presenting a new implementation of this model in an efficient opensource framework for interactive medical simulation and we analyze the resulting simulations through a complete sensitivity analysis.In a second step, the goal is to personalize the mechanical parameters from medical images (MRI data). To this end, we first propose an automatic calibration algorithm that estimates global mechanical parameters from volume and pressure curves. This technique was tested on 7 volunteers and 2 heart failure cases and allowed to perform a preliminary specificity study that intends to determine the relevant parameters able to differentiate the pathological cases from the control cases.Once initialized with the calibrated values, the parameters are then locally personalized with a more complex optimization algorithm. Reduced Order Unscented Kalman Filtering is used to estimate the contractilities on all of the AHA zones of the Left Ventricle, matching the regional volumes extracted from cine MRI data. This personalization strategy was validated and tested on several pathological and healthy cases. These contributions have led to promising results through this thesis and some are already used for various research studies
39

Coste, Nicolas. "Vers la prédiction de performance de modèles compositionnels dans les architectures GALS". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. Les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics
Validation, comprising functional verification and performance evaluation, is critical for complex hardware designs. Indeed, due to the high level of parallelism in modern designs, a functionally verified design may not meet its performance specifications. In addition, the later a design error is identified, the greater its cost. Thus, validation of designs should start as early as possible. This thesis proposes a compositional modeling framework, taking into account functional and time aspects of hardware systems, and defines a performance evaluation approach to analyze constructed models. The modeling framework, called Interactive Probabilistic Chain (IPC), is a discrete-time process algebra, representing delays as probabilistic phase type distributions. We defined a branching bisimulation and proved that it is a congruence with respect to parallel composition, a crucial property for compositional modeling. IPCs can be considered as a transposition of Interactive Markov Chains in a discrete-time setting, allowing a precise and compact modeling of fixed hardware delays. For performance evaluation, a fully specified IPC is transformed, assuming urgency of actions, into a discrete-time Markov chain, which can then be analyzed. Additionally, we defined a performance measure, called latency, and provided an algorithm to compute its long-run average distribution. The modeling approach and the computation of latency distributions have been implemented in a tool-chain relying on the CADP toolbox. Using this tool-chain, we studied communication aspects of an industrial hardware design, the xSTtream architecture, developed at STMicroelectronics
40

Coste, Nicolas. "Vers la prédiction de performance de modèles compositionnels dans les architectures GALS". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00538425.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics.
41

El, Koujok Mohamed. "Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou". Phd thesis, Université de Franche-Comté, 2010. http://tel.archives-ouvertes.fr/tel-00542230.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est dicile de construire un outil de pronostic ecace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-ou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-ou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-ou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la conance au processus de pronostic. Enn, les mécanismes d'évaluation de la abilité d'un bien sont adaptés au cas prédictif an de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL).
42

Dzeutouo, Zapa Donard. "Développement d’un modèle prédictif de la productivité spatio-temporelle des plants de bleuets sauvages". Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11331.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En été, la cueillette des bleuets sauvages est une activité de loisir ou une activité génératrice de revenus, qui est très répandue au Saguenay-Lac-Saint-Jean ainsi que dans d’autres régions du Canada. Aucun modèle prédictif validé de présence ou de production en fonction des caractéristiques des peuplements forestiers et des facteurs climatiques n’est disponible actuellement. La présente étude se base sur les données d’une campagne d’échantillonnage en 2016 qui a documenté 13 variables environnementales de 157 sites, pour analyser les liens avec la présence des plants de bleuets sauvages. À l’issue de ces analyses, les variables telles que le type de perturbation, l’âge depuis la dernière perturbation, la densité du couvert forestier, la hauteur du couvert, et le type écologique se sont avérées pertinentes pour prédire le pourcentage de recouvrement en plants de bleuets sauvages. De plus, les données météorologiques de sept stations couvrant la période de 2009 à 2016 ont permis de développer un modèle prédictif de la productivité relative annuelle qui peut servir de modèle d’aide à la décision pour la planification de la cueillette. Les résultats montrent que l’intégration des variables environnementales issues des tests statistiques permet d’augmenter de façon significative la capacité de prédiction du potentiel de présence des plants de bleuets sauvages. Sur les 126 sites retenus pour les analyses, le nouveau modèle qui utilise les variables issues des tests statistiques a prédit avec exactitude le potentiel de présence de 70 sites, contrairement à l’ancien modèle basé sur les connaissances théoriques des experts, qui prédit avec exactitude le potentiel de présence de 46 sites, soit une augmentation de 19 %. De plus, les modalités qui favorisent la présence des plants de bleuets sauvages comme : (1) une faible densité du couvert forestier, (2) une faible hauteur du peuplement, et (3) une perturbation récente due à un feu ou à une coupe forestière, démontrent que le bleuet sauvage n’est pas une plante compétitrice. De plus, le lien établi entre le rendement moyen annuel et les variables climatiques démontrent que la variabilité interannuelle du rendement est étroitement liée à la quantité de neige accumulée pendant la période hivernale, à la température minimale moyenne entre mai et juin et au nombre de jours du mois de juin ou les températures minimales sont négatives.
43

Giraud, Laurent. "Modèle prédictif pour le développement d'un système embarqué de vidange des lubrifiants pour transmission". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0021/NQ48980.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
44

El, Koujoc Mohamed. "Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou". Besançon, 2010. http://www.theses.fr/2010BESA2024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est difficile de construire un outil de pronostic efficace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-flou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-flou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-flou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la confiance au processus de pronostic. Enfin, les mécanismes d'évaluation de la fiabilité d'un bien sont adaptés au cas prédictif afin de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL)
Industrial prognostic is nowadays recognized as a key feature to reinforce the dependability of equipments while reducing maintenance costs. However, it can be dfficult to implement an efficient prognostic tool since the lack of knowledge on the behaviour of an equipment can impede the development of classical dependability analysis. In this context, the general purpose of the work is to propose a prognostic system that starts from monitoring data and goes through useful indicators to optimize maintenance strategies. The work also aims at mitigating some problems that follow from the lack of knowledge on the degradation phenomena (amount of data, expertise in building a model). Developments are based on the use of the neuro-fuzzy system exTS as a tool to predict the state of degradation of an equipment. Its structure is partially determined, on one side, thanks to its evolving capability, and on the other side, thanks to parsimony principle : a procedure to automatically generate an accurate exTS prediction system that reaches a compromise between complexity and generalization capability is proposed. Following that, a method to firstly, a priori estimate the probability density function (pdf) of the error of prediction of the neuro-fuzzy system, and secondly propagate it to any prediction step, is also proposed and illustrated. This contribution enables to provide a confidence measure on predictions and thereby to integrate uncertainty to the prognostic process. Finally, mechanisms of reliability evaluation are adapted to the predictive case in order to generate the prognostic metrics that allows optimizing maintenance strategies, notably the Remaining Useful Life (RUL)
45

Cerrada-Lozada, Mariela. "Sur les modèles flous adaptatifs dynamiques". Toulouse, INSA, 2003. http://www.theses.fr/2003ISAT0021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La contribution principale de ce travail de recherche est la proposition d'un modèle flou avec des fonctions d'appartenance dynamiques à paramètres ajustables en ligne, par un algorithme basé sur l'Apprentissage par Renforcement (AR). L'approche présentée prend en compte la dynamique des variables du système en introduisant, dans les fonctions d'appartenance d'un modèle flou, la valeur moyenne et la variance des variables d'entrée et de sortie du modèle au temps t. De cette manière, les ensembles flous se déplacent sur le domaine de discours des variables, en fonction des valeurs de la moyenne et de la variance échantillonnées ;ainsi, la possibilité d'obtenir des ensembles flous disjoints peut être minimisée. La propriété dynamique du modèle flou proposé est un atout pour résoudre les problèmes de commande de systèmes variant avec le temps, par exemple. Des exemples d'identification de fonctions non-linéaires, variant avec le temps, illustrent la capacité du modèle flou adaptatif dynamique pour l'identification des systèmes. Une application à la commande prédictive a été développée, en utilisant le modèle flou proposé comme modèle de prédiction et l'AR pour résoudre le problème d'optimisation de ce type de schéma de commande. Finalement, l'utilisation de l'information contenue dans les fonctions d'appartenance dynamiques du modèle flou à des niveaux supérieurs de supervision et diagnostic, a été aussi discutée comme perspective intéressante d'application de ce type de modèles
This work deals with the proposition of an adaptive fuzzy model with dynamical membership functions. The identification of the parameters of these membership functions is performed by a on-line reinforcement learning-based algorithm. This approach takes into account the system variables dynamic by incorporating the mean value and the variance, at time t, of the input and output variables of the fuzzy model into its membership functions. By this way, the fuzzy sets associated to the fuzzy variables, are relocated on the domain of discourse according to the sampled mean and variance values; thus, a disjointed partition of the fuzzy sets of the fuzzy model could be avoid. The dynamical property of the proposed fuzzy models is an asset in fuzzy control problems in case of time-varying nonlinear systems, for example. Classical examples related to the identification of time-varying nonlinear functions show the capabilities of the dynamical fuzzy models. An application to predictive control has been developed using the fuzzy model as one step ahead predictor and the reinforcement learning in the optimization problem of this type of control scheme. Finally, a discussion about the use of the information provided by the dynamical membership functions is presented in order to accomplish diagnosis and supervision tasks at upper levels
46

Sbidian, Émilie. "Evolution et facteurs pronostiques de la Neurofibromatose 1". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T064/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Neurofibromatose 1 (NF1) est une maladie autosomique dominante dont l’évolutivité est inconnue. En effet, ni le type de mutation du gène, la gravité d’éventuels cas familiaux, ni une première complication ne permettent de prédire le pronostic de la maladie. L’objectif général de ce travail de thèse était de cibler les malades les plus à risque de morbi-mortalité au cours de la NF1. Méthode. Les différents travaux se sont appuyés sur les données phénotypiques de patients NF1 suivis dans le Réseau NF-France labellisé par le ministère de la Santé. Il s’agit d’une filière nationale monothématique ayant pour mission la prise en charge des malades atteints de NF1. Une cohorte d’environ 2500 malades est actuellement suivie dans ce réseau. Résultats. La mortalité des patients NF1 a tout d’abord été comparée à celle de la population générale française par l’estimation du rapport de mortalité standardisée (SMR). Entre 1980 et 2006, 1 895 patients NF1 ont été rétrospectivement inclus dans la cohorte. Un excès de mortalité était observé chez les [10-20[ ans (SMR=5.2, IC95% : 2.6 – 9.3, p<10-4) et les [20-40[ ans (SMR=4.1, IC95% : 2.8 – 5.8, p<10-4). Les principales causes de décès étaient la transformation de neurofibromes internes en tumeurs malignes des gaines nerveuses (TMGN). Une étude cas témoins portant sur 208 patients NF1 a permis d’expliquer le risque de mortalité accru chez les patients présentant des neurofibromes sous cutanés (SC-NF) en confirmant en IRM la présence chez ces patients de neurofibromes internes à fort risque de transformation en TMGN (OR=4.3, IC95% : 2.2 – 8.2). Cet effet était d’autant plus marqué que le nombre de SC-NF était important et notamment au-delà d’un seuil de 10 (OR=82, IC95% : 10.4 – 647.9) et que les neurofibromes internes étaient diffus (OR=14.7, IC95% : 3.8 – 57.3) et de taille ≥ 3 cm (OR=6.3, IC95% : 2.3 – 17.4). Les patients présentant des SC-NF représentent 20 à 30% de la population NF1. Afin d’identifier les patients à risque de développer une TMGN, nous avons élaboré un score prédictif de la présence des neurofibromes internes à partir des caractéristiques phénotypiques des patients. La présence de SC-NF (OR=4.7, IC95% : 2.1 – 10.5), l’absence de neurofibromes cutanés (OR=2.6, IC95% : 0.9 – 7.5), un âge inférieur ou égal à 30 ans (OR=3.1, IC95% : 1.4 – 6.8) et moins de 6 tâches café au lait (OR=2, IC95% : 0.9 – 4.6) étaient les variables qui constituaient le NF1Score. Le NF1Score = 10*(âge ≤ 30 ans) + 10*(absence de neurofibromes cutanés) + 5*(moins de 6 tâches café-au-lait) + 15*(plus de 2 neurofibrome sous cutanés) avait une excellente adéquation (test C de Hosmer-Lemeshow=4,53 avec 7ddl, p>0,50) et une capacité discriminante satisfaisante (aire sous la courbe ROC non paramétrique = 0,75 [0,68-0,82]). Enfin, l’expression phénotypique variant au cours du temps chez un même patient nous avons réalisé une étude spécifique chez l’enfant. Ainsi, l’âge (OR=1.1, IC95% : 1.0 – 1.2), la présence de xanthogranulomes (OR=4.5, IC95% : 0.9 – 21.7), celle de neurofibromes sous cutanés et plexiformes (OR=5.0, IC95% : 1.8 – 13.6) étaient indépendamment associés à celle des neurofibromes internes chez l’enfant NF1 de moins de 17 ans. Dans cette dernière étude, les neurofibromes internes se développaient de façon exponentielle pendant l’adolescence et plus précocement chez les femmes en accord avec les données de la littérature. Conclusion. La période à risque de développer des neurofibromes internes semblent donc sesituer entre l’adolescence et l’âge de 30 ans. Les recommandations de suivi pourraient prendre en compte le phénotype à risque, mais également la période de survenue de ces complications en réévaluant l’intérêt dans ce contexte d’investigations complémentaires
Neurofibromatosis-1 (NF1) is a common autosomal dominant condition which is a source of various multisystemic manifestations related either to the accumulation of neurofibromas or to specific developmental abnormalities. There are no obvious factors that predict disease progression. Thus, the aim of our project was to characterize the phenotype of NF1 patients with a severe prognosis. Patients were identified among adults with NF-1 followed up in the Réseau NF-France. The Réseau NF-France is a French medical network devoted to neurofibromatosis 1. It has elaborated recommendations for the management of the disease and recommended a coordinated follow-up in specialized multidisciplinary centres. About 2 500 patients were enrolled. We first evaluated the mortality in a large retrospective cohort of NF1 patients. The standardized mortality ratio (SMR) with its 95% confidence interval (CI) was calculated as the ratio of observed over expected numbers of deaths. Between 1980 and 2006, 1895 NF1 patients were seen. The excess mortality occurred among patients aged 10 to 20 years (SMR=5.2; CI, 2.6-9.3; P<10-4) and 20 to 40 years (SMR, 4.1; 2.8-5.8; P<10-4). The main cause of death was the malignant tumors of the nerve sheath (MPNSTs) developing from preexisting internal neurofibromas. Then, a case-control study including 208 patients with NF1 allowed us to explain the increased risk of mortality among NF1 patients harboring subcutaneous neurofibromas (SC-NF) by the presence of internal neurofibromas (NF) at risk of MPNSTs systematically investigated with imaging (MRI) (OR=4.3, IC95% : 2.2 – 8.2). The association with SC-NF was stronger for patients with ten or more SC-NFs (OR=82, IC95% : 10.4 – 647.9) and for diffuse (OR=14.7, IC95% : 3.8 – 57.3), and ≥ 3 cm (OR=6.3, IC95% : 2.3 – 17.4) internal neurofibromas. Patients with SC-NF constituted 20 to 30% of the NF1 population. So, to characterize patients at risk of developping MPNSTs, we developped and validated a clinical score for predicting internal neurofibromas in adults. Four variables were independently associated with internal neurofibromas: at least two subcutaneous neurofibromas (OR=4.7, IC95% : 2.1 – 10.5), age ≤30 years (OR=3.1, IC95% : 1.4 – 6.8), absence of cutaneous neurofibromas (OR=2.6, IC95% : 0.9 – 7.5), and fewer than six café-au-lait spots (OR=2, IC95% : 0.9 – 4.6). The NF1Score was computed as 10 . [age ≤30 years] + 10 • [absence of cutaneous neurofibromas] + 15 • [≥2 subcutaneous neurofibromas] + 5 • [<6 café-au-lait spots]). Calibration was excellent (Hosmer-Lemeshow statistic=4.53; degrees of freedom=7; P>0.5) and discrimination was good (AUC-ROC= 0.75; 95%CI, 0.7-0.8). Finally clinical expressivity is variable and manifestations of NF1 change at different times in an individual’s life. Consequently, a specific study was needed in pediatric patients. We identified easily recognizable clinical characteristics associated with internal neurofibromas in children with NF1. By multivariate analysis, age (OR=1.1, IC95% : 1.0 – 1.2), xanthogranulomas (OR=4.5, IC95% : 0.9 – 21.7), and presence of both subcutaneous and plexiform neurofibromas (OR=5.0, IC95% : 1.8 – 13.6) were independently associated with internal neurofibromas. Moreover internal neurofibromas increased during adolescence. Excess risk of developing internal neurofibromas seems to occur between the adolescence and the age of to 30 in NF1 patients. These clinical features in adults and children would define a new population at risk for complications that may need closer clinical and imaging follow-up
47

Labiadh, Mouna. "Méthodologie de construction de modèles adaptatifs pour la simulation énergétique des bâtiments". Thesis, Lyon, 2021. http://www.theses.fr/2021LYSE1158.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modélisation prédictive au sein des bâtiments est essentielle pour le contrôle intelligent, la coordination et la planification efficaces des réseaux d'énergie. L'un des moyens de modélisation prédictive utilise l'apprentissage automatique. En plus de leur bonne performance, ces approches sont rapides et permettent une intégration facile du bâtiment dans des systèmes intelligents. Cependant, un modèle d'apprentissage précis s'appuie essentiellement sur la disponibilité des données historiques en quantité suffisante, notamment quand l'apprentissage profond est utilisé. Dans le domaine d'énergie des bâtiments, les données historiques ne sont pas disponibles pour l'entraînement, notamment dans le cas des bâtiments nouvellement construits et nouvellement rénovés. En outre, il est fréquent d'évaluer l'efficacité énergétiques des bâtiments avant leur construction ou rénovation. Dans de tels cas, on dispose uniquement d'une description contextuelle du bâtiment futur et de sa conception. Cette thèse s'intéresse à la tâche de modélisation prédictive de la consommation énergétique des bâtiments quand aucune donnée historique n'est disponible. Pour cela, des données collectées à partir de plusieurs différents bâtiments sources sont exploitées. Ceci est de plus en plus pertinent compte tenu la croissance des initiatives de données ouvertes dans plusieurs secteurs, dont celui de l'énergie. Ainsi, l'idée est de transférer la connaissance entre les modèles de bâtiments. Peu de travaux de recherche sont menés à l'intersection des domaines de modélisation de l'énergie des bâtiments et le transfert d'apprentissage. Le traitement de données multi-sources constitue un défi majeur, vu l'écart de concept qui peut exister entre les différents sources et aussi entre chaque source et cible. Comme contribution, on propose une méthodologie de modélisation prédictive adaptative aux requêtes des utilisateurs. Le premier processus est responsable de la recommandation de données d'apprentissage pertinentes vis-à-vis un bâtiment cible, seulement en utilisant une description contextuelle minimale sur ce dernier (métadonnées). La description contextuelle est modélisée en tant que requête utilisateur. Pour permettre des recommandations spécifiques à la tâche cible, notre approche se base sur l'apprentissage profond de métrique de similarité. Le second processus est responsable de l'entraînement de plusieurs modèles prédictifs sur les données d'apprentissage recommandées par le processus précédent. Ces modèles sont combinés avec une méthode ensembliste pour assurer une bonne performance. L'implémentation de la méthodologie est basée sur les microservices. Les processus indépendants sont, par conséquent, modélisés en tant que microservices à but unique et à source de données séparée. Les métadonnées des bâtiments et leurs séries temporelles recueillies auprès de nombreuses sources sont intégrées au sein d'une vue unifiée et basée sur des ontologies. Les évaluations expérimentales de la méthodologie valident son efficacité et son applicabilité à la tâche de modélisation énergétique des bâtiments. Par ailleurs, vu le caractère générique de sa conception, la méthodologie peut être réutilisée dans d'autres applications dans divers secteurs
Predictive modeling of energy consumption in buildings is essential for intelligent control and efficient planning of energy networks. One way to perform predictive modeling is through machine learning approaches. Alongside their good performance, these approaches are time efficient and facilitates the integration of buildings into smart environments. However, accurate machine learning models rely heavily on collecting relevant building operational data in a sufficient amount, notably when deep learning is used. In the field of buildings energy, historical data are not available for training, such is the case in newly built or newly renovated buildings. Moreover, it is common to verify the energy efficiency of buildings before construction or renovation. For such cases, only a contextual description about the future building and its design is available. The goal of this dissertation is to address the predictive modeling tasks of building energy consumption when no historical data are available for the given target building. To that end, existing data collected from multiple different source buildings are leveraged. This is increasingly relevant with the growth of open data initiatives in various sectors, namely building energy. The main idea is to transfer knowledge across building models. There is little research at the intersection of building energy modeling and knowledge transfer. An important challenge arises when dealing with multi-source data, since large domain shift may exist between different sources and also between each source and the target. As a contribution, a two-fold query-adaptive methodology is developed for cross-building predictive modeling. The first process recommends relevant training data to a target building solely by using a minimal contextual description on it (metadata). Contextual descriptions are provided as user queries. To enable a task-specific recommendation, a deep similarity learning framework is used. The second process trains multiple predictive models based on recommended training data. These models are combined together using an ensemble learning framework to ensure a robust performance. The implementation of the proposed methodology is based on microservices. Logically independent workflows are modeled as microservices with single purposes and separate data sources. Building metadata and time series data collected from multiple sources are integrated into an unified ontology-based view. Experimental evaluation of the predictive model factory validates the effectiveness and the applicability for the use case of building energy modeling. Moreover, because of its generic design, the methodology for query-adaptive cross-domain predictive modeling can be re-used for a diverse range of use cases in different fields
48

Fonte, Christophe. "Une nouvelle régulation pour les processus industriels : la commande adaptative à multiples modèles de référence". Lille 1, 1986. http://www.theses.fr/1986LIL10102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le contexte industriel précis de la régulation, les méthodes traditionnelles n'assurent pas un niveau de performances satisfaisant. C'est pourquoi nous proposons une nouvelle méthode de commande : la commande adaptative à multiples modèles de référence. Cette méthode permet d'obtenir des performances optima quelles que soient les conditions de fonctionnement du système et cela, grâce : 1) à sa capacité d'adaptation qui rend cette méthode applicable à beaucoup de procédés physiques ayant des comportements variables dans le temps. 2) à la qualité de la loi de commande qui confère à cette méthode les avantages des correcteurs précédemment utilisés sans en avoir les inconvénients. En effet, les pôles du système sont placés sans qu'il n'y ait à résoudre l'équation de Bezout. Les trajectoires de référence sur les sorties et les commandes sont suivies sans la limitation de l'inverse stable. De plus un critère quadratique généralise est minimisé sans que l'on soit tenu de procéder au choix toujours délicat des coefficients de pondération. Nous appliquons cette méthode de synthèse à trois procédés d'utilisation différents : 1/ pour réguler la température d'un four électrique, 2/ pour l'asservissement de position d'une antenne radar, 3/ pour le pilotage automatique d'un engin volant
49

Grenier, Alain Guy. "La valeur prédictive du modèle polyarchique de Robert A Dahl". Thesis, University of Ottawa (Canada), 1988. http://hdl.handle.net/10393/22122.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Youdjari, Djonkamla. "Développement d'un modèle de prédiction de l'uni des chaussées flexibles". Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31592.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de la thèse est de développer un modèle de prédiction de l’uni des chaussées flexibles. La réalisation de cet objectif a impliqué quatre principales étapes. Premièrement, une revue de connaissance relative à la thématique a été faite. Il ressort de cette étude que l’Indice de Rugosité Internationale (IRI) est l’indice qui représente le mieux le phénomène d’uni. Cependant, la prédiction de celui-ci est encore essentiellement faite par des modèles empiriques. Deuxièmement, les deux principales dégradations des chaussées qui peuvent être les sources de problème d’uni pendant leur durée de vie utile sont notamment la déformation permanente différentielle (ornière) et le soulèvement différentiel. Ils ont été analysés et la nécessité de leur prédiction a été établie. Les modèles de prédiction recherchés doivent intégrer dans leur structure mathématique les paramètres géotechniques de sol qui sont les sources de la variabilité le long d’un tracé. Pour le soulèvement au gel, le modèle de Konrad (1981 et 2005) a été jugé approprié pour être intégré dans le modèle de prédiction de l’uni. Cependant, pour la déformation permanente, un nouveau modèle a été développé pour les besoins du projet. Troisièmement, un modèle mathématique de prédiction de l’uni des chaussées flexibles en termes d’IRI a été dérivé. Il a été bâti sur les hypothèses rigoureuses et comporte les paramètres complexes suivants : la déformation permanente ( ε p ), le soulèvement au gel (S), la fissuration transversale ( Ft ) et le coefficient représentant l’effet d’amplification ou d’atténuation des longueurs d’onde (K). Quatrièmement, le modèle dérivé a été étalonné et validé avec de données obtenues sur des chaussées réelles. Pour l’étalonnage, les données des bases de données du LTTP et du MTQ, d’une part, et, d’autre part, les données de la cueillette des paramètres géotechniques issus des essais de caractérisations des échantillons prélevés à chaque 5 m le long de 5 différents sites au Québec, ont été utilisées. Les coefficients d’étalonnage requis ont été déterminés avec succès. Pour la validation du modèle, par manque de paramètres géotechniques à chaque 5 m le long des sections identifiées pour réaliser cet objectif, le principe de niveau d’utilisation du modèle d’uni a été développé. Trois niveaux d’utilisation du modèle ont été développés et le modèle a été validé au troisième niveau d’utilisation avec un niveau de succès acceptable.
The objective of the thesis is to develop a model of prediction of the flexible pavements roughness. This goal was achieved through a rigorous process that involved four steps. First, a review of knowledge was made. It appears from this study that the International Roughness Index (IRI) is the index that better represents the roughness phenomenon, but the prediction is still empirical. Second, the two main pavement degradations that could cause roughness problems during the useful life are the permanent deformation and frost heave. After analysis of the existing models the need of the prediction model was established. The desired prediction models should have in their mathematical structure the geotechnical parameters of soil, which are the origin of variability along a road. For frost heave, the Konrad model (1981 and 2005) was found to be appropriate. However, for permanent deformation there was no adequate model. Thus, a permanent deformation model was developed. Third, a mathematical model for the prediction of pavements roughness in terms of IRI was derived. It has been built on rigorous assumptions and includes the following parameters: permanent deformation ( ε p ), frost heave (S), transverse crack ( Ft ) and coefficient representing the effect of amplification or attenuation of wavelengths (K). Fourth, the derived model was calibrated and validated with data obtained on actual pavements. For calibration, data from the LTTP and MTQ databases and the geotechnical parameters resulting from the characterization tests of the samples, taken at every 5 m along 5 different sites in Quebec Province were used. The required calibration coefficients have been determined successfully. For the validation of the model, due to lack of geotechnical parameters at every 5 m along the identified sections to achieve this objective, the principle of the model use level has been developed. Three levels of the model use were developed and the model was validated at the third level with an acceptable level of success.

Vai alla bibliografia