Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Prédiction des processus.

Dissertationen zum Thema „Prédiction des processus“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Prédiction des processus" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Cheze-Payaud, Nathalie. „Régression, prédiction et discrétisation des processus à temps continu“. Paris 6, 1994. http://www.theses.fr/1994PA066524.

Der volle Inhalt der Quelle
Annotation:
Cette these porte sur l'etude des estimateurs a noyau de la fonction de regression, pour des processus melangeants a temps continu. Dans le premier chapitre, quelques rappels sont donnes. Le deuxieme chapitre est compose d'outils indispensables a l'etude des convergences des estimateurs. Le troisieme chapitre est consacre a la construction et l'etude des estimateurs. La convergence presque sure de l'estimateur est obtenue sous des hypotheses usuelles. Ensuite, sous des hypotheses d'independance asymptotique (forte melangeance), des vitesses optimales de convergence en moyenne quadratique sont obtenues (meme vitesse de convergence et constante que dans le cas de l'echantillon). Sous des hypotheses locales les vitesses deviennent superoptimales, c'est a dire meilleures que celles atteintes dans le cas de l'echantillon. Ces hypotheses sont verifiees pour des processus a trajectoires suffisamment irregulieres. Ces resultats mettent en evidence la difference fondamentale entre temps discret et temps continu. L'irregularite des trajectoires est une information additionnelle que l'on ne possede pas dans le cas discret. Puis, nous obtenons la normalite asymptotique de l'estimateur. Pour certains processus, nous construisons des intervalles de confiance. La fin de ce chapitre concerne l'application de ces differents resultats a la prediction non parametrique. Dans le quatrieme chapitre, nous envisageons l'estimation de la fonction de regression a partir d'observations discretisees ou les instants d'observations peuvent etre deterministes ou aleatoires. Nous supposons, que les instants d'observations sont suffisamment distants. Nous obtenons la meme vitesse de convergence en moyenne quadratique que dans le cas de l'echantillon. Dans le cas ou une vitesse superoptimale est atteinte cette discretisation n'est pas satisfaisante. Pour remedier a ce probleme, dans le chapitre 5, nous utilisons une discretisation plus fine que la precedente. Dans ce cas, nous montrons que la vitesse superoptimale est atteinte. Dans le chapitre 6, nous donnons quelques resultats de simulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Breton, Nicolas. „Prédiction des structures secondaires séquentiellement optimales de l'ARN“. Université de Marne-la-Vallée, 1998. http://www.theses.fr/1998MARN0020.

Der volle Inhalt der Quelle
Annotation:
L'acide ribonucleique, ou arn, est le nom generique d'une famille de macromolecules biologiques dont le role est preponderant dans un grand nombre des reactions prenant place dans la cellule vivante. La fonction de certaines des molecules d'arn presentes dans une cellule est principalement determinee par la structure qu'elles adoptent dans l'espace. Pour le biologiste desireux de decouvrir la fonction, ou de comprendre le mode de fonctionnement d'une telle molecule, il est primordiale de connaitre cette structure, ou au moins une description de la partie plane de cette structure, appelee structure secondaire. La plupart des methodes de prediction de la structure secondaire adoptee par une molecule d'arn, partent de l'hypothese que l'equilibre est atteint par le processus de formation de ces structures. Le rejet de cette hypothese donne naissance a la famille des methodes sequentiellement optimales de prediction. Dans ces methodes, on cherche a simuler le processus de formation des structures afin de pouvoir predire la structure la plus probable a un instant d'observation donne. Nous avons modelise ce processus en utilisant le puissant outil mathematique que sont les processus de saut markoviens homogenes. Cela nous a permis de decrire le processus de formation des structures dans un cadre theorique rigoureux et fiable, jusqu'alors inexistant. Ce modele utilise les vitesses des reactions elementaires permettant a la molecule d'arn de passer d'une structure a une autre. Ces vitesses n'ayant ete mesurees que dans un ensemble tres restreint de cas, nous les avons modelisees dans le cadre de la theorie stochastique des collisions activees, afin de pouvoir en calculer une approximation. Finalement, en partant de ce modele, et en effectuant diverses approximations, nous proposons un algorithme de prediction des structures secondaires sequentiellement optimales de l'arn
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Wintenberger, Olivier. „Contributions à la statistique des processus : estimation, prédiction et extrêmes“. Habilitation à diriger des recherches, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00757756.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire d'habilitation traite de la statistique des processus à temps discret faiblement dépendants. Une première partie présente des résultats asymptotiques d'estimation pour les paramètres de modèles affines généraux. La méthode étudiée est la maximisation du critère de quasi-vraisemblance. Afin de traiter de possibles ruptures de stationnarité, nous pénalisons ce critère par le nombre de ruptures. Pour les modèles à volatilité comme le modèle EGARCH, cette procédure est instable et nous proposons de contraindre le critère au domaine dit d'inversibilité continue. Nous étudions le problème de la prédiction de processus faiblement dépendants dans une seconde partie. Les résultats obtenus sont des inégalités d'oracle non asymptotiques nécessitant l'étude préalable des propriétés de concentration gaussiennes de lois faiblement dépendantes. Pour ce faire nous utilisons une notion de transport faible et de nouvelles inégalités dites de transport conditionnel. Enfin, le comportement des extrêmes en présence de dépendance fait l'objet de la troisième partie. Nous introduisons un indice de {\it cluster} qui caractérise les lois limites $\alpha$-stables dans le théorème de la limite centrale et les grandes déviations des sommes partielles à variation régulière. Nous traitons des exemples de processus à queues épaisses tels que les solutions des équations récurrentes stochastiques linéaires et le modèle GARCH. Nous appliquons ces résultats pour caractériser asymptotiquement les erreurs d'estimation des auto-covariances de processus à queues épaisses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Koval, Morgane. „Visualisations prédictives pour des processus décisionnels personnels informés“. Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0039.

Der volle Inhalt der Quelle
Annotation:
Dans la vie de tous les jours, une personne est amenée à prendre pleins de micro-décisions qui peuvent avoir un impact plus ou moins important sur le confort, et des conséquences plus ou moins grandes sur d’autres aspects de la vie (organisation du temps, finances, retombées écologiques). Beaucoup de ces décisions impliquent notamment de se projeter dans le futur (e.g., combien de temps cela prendra-t-il d’aller récupérer un colis ? Resterat- il suffisamment de temps pour passer à la boulangerie avant qu’elle ne ferme?) Cette thèse explore l’utilisation de visualisations prédictives (i.e., des visualisations de l’incertitude d’événements futurs plausibles) pour aider à la prise de décision dans des contextes personnels (i.e., contexte informel, non-professionnel). Ce travail repose sur l’hypothèse que des visualisations d’événements incertains futurs basées sur des simulations peuvent être utiles pour obtenir une meilleure représentation mentale et une meilleure compréhension de ce qui peut arriver et ainsi prendre des décisions informées. Deux cas sont étudiés pour évaluer le potentiel d’une telle approche : l’incertitude temporelle (combien de temps une tâche peut prendre), et l’incertitude temporelle basée sur l’espace (combien de temps marcher entre deux points peut prendre). Toutefois, il existe d’autres types de données que les temporelles qui pourraient bénéficier de visualisations prédictives. Dans le but de présenter les enjeux liées à l’implémentation et l’étude de visualisations prédictives utilisant les nouvelles technologies (e.g., réalité augmentée) et des simulations dont les modèles sont, à ce jour, difficiles à mettre en place, un dernier cas est étudié et se porte sur la représentation de quantités de nourriture dans un but prévisionnel. Cette étude permet de commenter et détailler les futures directions que ce domaine peut chercher à adresser et sur le potentiel des visualisations prédictives pour des décisions informées dans la vie de tous les jours
In everyday life, one needs to make a variety of micro-decisions which may have a greater or lesser impact on comfort, and greater or lesser consequences on other aspects of life (planning, finances, ecological impact). Many of such decisions involve projecting oneself into the future (e.g., how long will it take to pick up a parcel? Will there be enough time left to go to the bakery before it closes?) This thesis explores the use of predictive visualizations to inform different decision processes in casual contexts (i.e., informal, non-professional). Predictive visualizations are visualizations of uncertainty that shows plausible future outcomes. This work builds on the assumption that visualizing data about future uncertain events generated by simulations can be useful to have a better mental representation and understanding of what can possibly happen and make informed decisions. Two cases are studied to evaluate the potential of such an approach: temporal uncertainty (how long a task may take), and space-based temporal uncertainty (how long walking between two points may take). However, there are other types of data than temporal that could benefit from predictive visualizations. With the aim of presenting the issues involved in implementing and studying predictive visualizations using new technologies (e.g., augmented reality) and simulations whose models are, to date, difficult to implement, a final case is studied, focusing on the representation of food quantities for predictive purposes. This allows detailing and commenting on the future directions this field may seek to address, and on the potential of predictive visualizations for informed decisions in a casual context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Mangin, Christian. „Simulation, estimation des paramètres et prédiction pour un processus de Kendall“. Thesis, University of Ottawa (Canada), 1994. http://hdl.handle.net/10393/6749.

Der volle Inhalt der Quelle
Annotation:
Le processus de Kendall a ete propose par Nucho (1979) comme une description adequate de la fluctuation de la demande entre deux points. Nous utilisons une simulation pour tester une methode d'estimation des parametres du processus. Nous developpons un algorithme pour calculer un intervalle de prediction de la demande a 95% de certitude, a t unites de temps dans le futur, a partir d'une realisation du processus $t\sp*$ unites de temps dans le passe. Nous verifions l'applicabilite de ce modele sur une base de donnees decrivant les fluctuations de la demande sur un reseau commercial.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Espinasse, Thibault. „Champs et processus gaussiens indexés par des graphes, estimation et prédiction“. Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1578/.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est l'étude de processus gaussiens indexés par des graphes. Le but est de fournir des outils pour la modélisation, l'estimation, et la prédiction de tels champs ou processus, utilisant fortement la structure du graphe. Dans un premier travail, nous nous intéressons au problème de prédiction aveugle de séries chronologiques et montrons que le biais de l'erreur de prédiction décroît à une vitesse qui dépend de la régularité de la densité spectrale, sous une hypothèse de courte mémoire. Nous utilisons ensuite la structure spectrale du graphe pour proposer des modèles de covariance pour des champs gaussiens indexés par ce graphe. Cela fournit immédiatement une représentation spectrale, qui permet d'étendre l'approximation de Whittle et l'estimation par quasi-maximum de vraissemblance à ce cadre. Enfin, cette constructionet le lemmede Szegöpeuventêtre étendus au cas spatiotemporel. Cela permet de mettre en pratique la théorie sur des données réelles
In this work, westudy Gaussian processes indexed by graphs. Weaim at providing tools for modelisation, estimation, and prediction, that uses the structure of the underlying graphs. In the first Chapter,we deal with the blind prediction problem, and compute, in the case of short range dependancy, the rate of convergence of the bias in the prediction error. This rate depends on the regularity of the spectral density of the process. Then, we use the eigenstructure of the adjacency operatorofa graphto propose some models for covariance operators of Gaussian fields indexedby this graph. It leads to aspectral representation for this operator, that can be used to extend Whittle approximation, and quasi-maximum likelihoo destimation. Finally, this construction may be extended to the spatio-temporal case, where the Szegö lemma still holds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Deregnaucourt, Thomas. „Prédiction spatio-temporelle de surfaces issues de l'imagerie en utilisant des processus stochastiques“. Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC088.

Der volle Inhalt der Quelle
Annotation:
La prédiction de surface est désormais une problématique importante dans de multiples domaines, tels que la vision par ordinateur, la simulation d'avatars en cinématographie ou dans les jeux vidéo, etc. Une surface pouvant être statique ou dynamique, c'est-à-dire évoluant dans le temps, le problème peut être séparé en deux catégories : un problème de prédiction spatial et un problème de prédiction spatio-temporel. Afin de proposer une nouvelle approche à chacune de ces problématiques, ce travail de thèse a été séparé en deux parties.Nous avons d'abord cherché à prédire une surface statique, qui est supposée cylindrique, en la connaissant partiellement sous la forme de courbes. L'approche que nous avons proposée consiste à déformer un cylindre sur les courbes connues afin de reconstruire la surface d'intérêt. Tout d'abord, une correspondance entre les courbes connues et le cylindre est générée à l'aide d'outils d'analyse de forme. Une fois cette étape effectuée, une interpolation du champ de déformation, qui a été supposé gaussien, a été estimée en se basant sur le maximum de vraisemblance d'une part, et par inférence bayésienne d'autre part. La méthodologie a par la suite été appliquée à des données réelles provenant de deux domaines de l'imagerie : l'imagerie médicale et l'infographie. Les divers résultats obtenus montrent que la méthode proposée surpasse les méthodes existantes dans la littérature, avec de meilleurs résultats en utilisant l'inférence bayésienne.Dans un second temps, nous nous sommes intéressés à la prédiction spatio-temporelle de surfaces dynamiques. L'objectif était de prédire entièrement une surface dynamique à partir de sa surface initiale. La prédiction nécessitant une phase d'apprentissage à partir d'observations connues, nous avons tout d'abord développé un outil d'analyse spatio-temporel de surfaces. Cette analyse se base sur des outils d'analyse de forme, et permet un meilleur apprentissage pour la prédiction. Une fois cette étape préliminaire effectuée, nous avons estimé la déformation temporelle de la surface dynamique à prédire. Plus précisément, une adaptation, applicable sur l'espace des surfaces, des estimateurs couramment utilisés en statistique a été utilisée. En appliquant la déformation estimée sur la surface initiale, une estimation de la surface dynamique a ainsi été créée. Cette méthodologie a par la suite été utilisée pour prédire des expressions 4D du visage, ce qui permet de générer des expressions visuellement convaincantes
The prediction of a surface is now an important problem due to its use in multiple domains, such as computer vision, the simulation of avatars for cinematography or video games, etc. Since a surface can be static or dynamic, i.e. evolving with time, this problem can be separated in two classes: a spatial prediction problem and a spatio-temporal one. In order to propose a new approach for each of these problems, this thesis works have been separated in two parts.First of all, we have searched to predict a static surface, which is supposed cylindrical, knowing it partially from curves. The proposed approach consisted in deforming a cylinder on the known curves in order to reconstruct the surface of interest. First, a correspondence between known curves and the cylinder is generated with the help of shape analysis tools. Once this step done, an interpolation of the deformation field, which is supposed Gaussian, have been estimated using maximum likelihood and Bayesian inference. This methodology has then been applied to real data from two domains of imaging: medical imaging and infography. The obtained results show that the proposed approach exceeds the existing methods in the literature, with better results using Bayesian inference.In a second hand, we have been interested in the spatio-temporal prediction of dynamic surfaces. The objective was to predict a dynamic surface based on its initial surface. Since the prediction needs to learn on known observations, we first have developed a spatio-temporal surface analysis tool. This analysis is based on shape analysis tools, and allows a better learning. Once this preliminary step done, we have estimated the temporal deformation of the dynamic surface of interest. More precisely, an adaptation, with is usable on the space of surfaces, of usual statistical estimators has been used. Using this estimated deformation on the initial surface, an estimation of the dynamic surface has been created. This process has then been applied for predicting 4D expressions of faces, which allow us to generate visually convincing expressions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chagneau, Pierrette. „Modélisation bayésienne hiérarchique pour la prédiction multivariée de processus spatiaux non gaussiens et processus ponctuels hétérogènes d'intensité liée à une variable prédite : application à la prédiction de la régénération en forêt tropicale humide“. Montpellier 2, 2009. http://www.theses.fr/2009MON20157.

Der volle Inhalt der Quelle
Annotation:
Un des points faibles des modèles de dynamique forestière spatialement explicites est la modélisation de la régénération. Un inventaire détaillé du peuplement et des conditions environnementales a permis de mettre en évidence les effets de ces deux facteurs sur la densité locale de juvéniles. Mais en pratique, la collecte de telles données est coûteuse et ne peut être réalisée à grande échelle : seule une partie des juvéniles est échantillonnée et l'environnement n'est connu que partiellement. L'objectif est ici de proposer une approche pour prédire la répartition spatiale et le génotype des juvéniles sur la base d'un échantillonnage raisonnable des juvéniles, des adultes et de l'environnement. La position des juvéniles est considérée comme la réalisation d'un processus ponctuel marqué, les marques étant constituées par les génotypes. L'intensité du processus traduit les mécanismes de dispersion à l'origine de l'organisation spatiale et de la diversité génétique des juvéniles. L'intensité dépend de la survie des graines, qui dépend elle-même des conditions environnementales. Il est donc nécessaire de prédire l'environnement sur toute la zone d'étude. L'environnement, représenté par un champ aléatoire multivarié, est prédit grâce à un modèle hiérarchique spatial capable de traiter simultanément des variables de nature différente. Contrairement aux modèles existants où les variables environnementales sont considérées comme connues, le modèle de régénération proposé doit prendre en compte les erreurs liées à la prédiction de l'environnement. La méthode est appliquée à la prédiction de la régénération des juvéniles en forêt tropicale (Guyane française)
One of the weak points of forest dynamics models is the recruitment. Classically, ecologists make the assumption that recruitment mainly depends on both spatial pattern of mature trees and environment. A detailed inventory of the stand and the environmental conditions enabled them to show the effects of these two factors on the local density of seedlings. In practice, such information is not available: only a part of seedlings is sampled and the environment is partially observed. The aim of the paper is to propose an approach in order to predict the spatial distribution and the seedlings genotype on the basis of a reasonable sampling of seedling, mature trees and environmental conditions. The spatial pattern of the seedlings is assumed to be a realization of a marked point process. The intensity of the process is not only related to the seed and pollen dispersal but also to the sapling survival. The sapling survival depends on the environment; so the environment must be predicted on the whole study area. The environment is characterized through spatial variables of different nature and predictions are obtained using a spatial hierarchical model. Unlike the existing models which assume the environmental covariables as exactly known, the recruitment model we propose takes into account the error related to the prediction of the environment. The prediction of seedling recruitment in tropical rainforest in French Guiana illustrates our approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Carraro, Laurent. „Questions de prédiction pour le mouvement brownien et le processus de Wiener à plusieurs paramètres“. Lyon 1, 1985. http://www.theses.fr/1985LYO11660.

Der volle Inhalt der Quelle
Annotation:
La premiere partie est consacree a la theorie des distributions empiriques a valeurs reelles, puis vectorielles. On etudie dans la seconde partie les mouvements browniens fractionnaires d'ordre alpha a plusieurs parametres, pour lesquels une decomposition en harmoniques spheriques est explicitee. Dans la troisieme partie, on exhibe une decomposition spectrale du processus de wiener a deux parametres qui se fonde sur les invariants de ce dernier
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Kozhemyak, Alexey. „Modélisation de séries financières à l'aide de processus invariants d'échelle. Application à la prédiction du risque“. Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00002224.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur l'étude de séries financières à l'aide de processus multifractals et notamment de processus MRW (Multifractal Random Walk), introduits par Bacry, Delour et Muzy. Dans ce contexte, on aborde la problématique des événements extrêmes, de l'approximation limite de petite intermittence et de l'estimation statistique des paramètres du modèle MRW log-normal. Les résultats obtenus permettent l'utilisation du modèle MRW pour la prédiction du risque (prédiction de volatilité conditionnelle et de Valeur-à-Risque conditionnelle). Une dernière partie plus exploratoire propose une modélisation des séries financières intra-journalières, modélisation compatible avec l'approche multifractale et permettant d'améliorer la prédiction de risque. Les résultats numériq! ues obtenus sur des données réelles montrent que le modµele MRW log-normal fournit des prédictions de risque de bien meilleure qualité que celles obtenues à l'aide de modèles économétriques plus classiques (GARCH et tGARCH).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Kozhemyak, Alexey. „Modélisation de séries financières à l'aide de processus invariants d'échelles. Application à la prédiction du risque“. Palaiseau, Ecole polytechnique, 2006. http://www.theses.fr/2006EPXX0054.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Chauvel, Cecile. „Processus empiriques pour l'inférence dans le modèle de survie à risques non proportionnels“. Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066399/document.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons à des processus empiriques particuliers pour l'inférence dans le modèle à risques non proportionnels. Ce modèle permet au coefficient de régression de varier avec le temps et généralise le modèle à risques proportionnels très utilisé pour modéliser des données de survie. Le processus du score standardisé que nous étudions est une somme séquentielle des résidus standardisés du modèle. Le processus est considéré en présence d'une covariable dans le modèle, avant d'être étendu au cas de multiples covariables pouvant être corrélées. Le plan du manuscrit se décompose en trois parties. Dans un premier temps, nous établissons les propriétés limites du processus sous le modèle et sous un modèle mal spécifié. Dans une deuxième partie, nous utilisons les résultats de convergence du processus pour dériver des tests de la valeur du paramètre du modèle. Nous montrons qu'un des tests proposés est asymptotiquement équivalent au test de référence du log-rank pour comparer les fonctions de survie de plusieurs groupes de patients. Nous construisons des tests plus puissants que le test du log-rank sous certaines alternatives. Enfin, dans la dernière partie, nous étudions comment lier prédiction et adéquation dans le modèle à risques non proportionnels. Nous proposons une méthode de construction d'un modèle bien ajusté en maximisant sa capacité prédictive. Aussi, nous introduisons un test d'adéquation du modèle à risques proportionnels. Les performances des méthodes proposées, qu'il s'agisse des tests sur le paramètre ou de l'adéquation du modèle, sont comparées à des méthodes de référence par des simulations. Les méthodes sont illustrées sur des données réelles
In this thesis, we focus on particular empirical processes on which we can base inference in the non-proportional hazards model. This time-varying coefficient model generalizes the widely used proportional hazards model in the field of survival analysis. Our focus is on the standardized score process that is a sequential sum of standardized model-based residuals. We consider first the process with one covariate in the model, before looking at its extension for multiple and possibly correlated covariates. The outline of the manuscript is composed of three parts. In the first part, we establish the limit properties of the process under the model as well as under a misspecified model. In the second part, we use these convergence results to derive tests for the value of the model parameter. We show that one proposed test is asymptotically equivalent to the log-rank test, which is a benchmark for comparing survival experience of two or more groups. We construct more powerful tests under some alternatives. Finally, in the last part, we propose a methodology linking prediction and goodness of fit in order to construct models. The resulting models will have a good fit and will optimize predictive ability. We also introduce a goodness-of-fit test of the proportional hazards model. The performances of our methods, either tests for the parameter value or goodness-of-fit tests, are compared to standard methods via simulations. The methods are illustrated on real life datasets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Brunet, François. „Etudes des modes de déformation angulaire des molécules tétraédriques XY4 : prédiction de transitions multiphotoniques du silane“. Dijon, 1991. http://www.theses.fr/1991DIJOS003.

Der volle Inhalt der Quelle
Annotation:
Nous avons analysé les spectres micro-onde et infrarouge du silane (28 SiH4) correspondant aux trois premiers niveaux vibrationnels de déformation angulaire. L'hamiltonien de vibration-rotation a été construit par couplage de tenseurs irréductibles des groupes O(3) ou Td. Les paramètres déterminés par l'analyse reproduisent les spectres expérimentaux de façon satisfaisante. A partir des résultats précédents nous avons pu prédire un ensemble de transitions multiphotoniques qui ont déja permis l'observation de transitions à deux photons.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Fulgenzi, Chiara. „Navigation autonome en environnement dynamique utilisant des modèles probabilistes de perception et de prédiction du risque de collision“. Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0078.

Der volle Inhalt der Quelle
Annotation:
La navigation autonome en environnement dynamique représente encore un défi important pour la robotique moderne. Dans cette thèse nous abordons le problème de la prise en compte explicite des incertitudes liées à la perception et à la prédiction de l'état d'un environnement dynamique inconnu pour la decision sur les mouvements futures du robot. Nous proposons d'abord un algorithme réactif basé sur l'intégration de l'extension probabiliste de la méthode Velocity Obstacle et d'une grille d'occupation dynamique. Nous presentons ensuite une nouvelle extension probabiliste de l'algorithme RRT et nous l'utilisons pour une approche de navigation ”anytime” : les décisions du robot sont mises a jour avec les observations les plus récentes. Nous considérons d'abord le cas de prédiction à court terme et ensuite le cas de prédiction a moyen terme, basée sur les trajectoires typiques des obstacles, apprises a priori
In this document we address the problem of autonomous navigation in dynamic unknown environ- ments. The key of the problem is to guarantee safety for all the agents moving in the space (people, vehicles and the robot itself) while moving toward a predefined goal. In contrast with static or controlled environments, high dynamic environments present many difficult issues: the detection and tracking of moving obstacles, the prediction of the future state of the world and the on-line motion planning and navigation. We moved our research starting from the fact that the decision about motion must take into account the limits of sensor perception, the velocity and future trajectory of the moving obstacles and that it must be related with the on-line updating of the world perception. Our approach is based on the use of probabilistic frameworks to represent the uncertainty about the static environment and the dynamic obstacles and we have developed decision methods that take explicitly into account such information for the autonomous navigation task. At first we focused our attention on reactive approaches. The developed approach is based on the integration between a probabilistic extension of the Velocity Obstacle framework within a dynamic occupancy grid (Bayesian Occupancy Filter). The dynamic occupancy grid gives a probabilistic and explicit representation of the perception limits and of the model error and noise while the Probabilistic Velocity Obstacles compute a probability of collision in time. The probability of collision and hence the choice of the next control, take into account limited sensor range, occlusions, obstacles shape and velocity estimation errors. Simulation results show the robot adapting its behaviour to different conditions of perception, avoiding static and moving obstacles and moving toward the goal. In the second part of the document we move toward more complex strategies, integrating a Partial Motion Planning algorithm with probabilistic representation of the environment and collision risk prediction. We propose a novel probabilistic extension of the well known Rapidly-exploring Random Trees framework and we integrate this search algorithm into a partial planning anytime approach, updating on-line the decisions of the robot with the last observations. We consider at first the case of a short-term prediction based on a classic Multi-Target-Tracking algorithm. Secondly, we consider the case of a longer term prediction based on a priori known typical patterns. We compare two kinds of patterns representation: the Hidden Markov Model representation and the continuous Gaussian Processes representation. The search and planning algorithm is adapted to these different kinds prediction and simulation results for navigation among multiple moving obstacles are shown
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Fulgenzi, Chiara. „Navigation autonome en environnement dynamique utilisant des modèles probabilistes de perception et de prédiction du risque de collision“. Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00398055.

Der volle Inhalt der Quelle
Annotation:
La navigation autonome en environnement dynamique représente encore un défi important pour la robotique moderne. Dans cette thèse nous abordons le problème de la prise en compte explicite des incertitudes liées à la perception et à la prédiction de l'état d'un environnement dynamique inconnu pour la decision sur les mouvements futures du robot. Nous proposons d'abord un algorithme réactif basé sur l'intégration de l'extension probabiliste de la méthode Velocity Obstacle et d'une grille d'occupation dynamique. Nous presentons ensuite une nouvelle extension probabiliste de l'algorithme RRT et nous l'utilisons pour une approche de navigation ”anytime” : les décisions du robot sont mises a jour avec les observations les plus récentes. Nous considérons d'abord le cas de prédiction à court terme et ensuite le cas de prédiction a moyen terme, basée sur les trajectoires typiques des obstacles, apprises a priori.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Coste, Nicolas. „Vers la prédiction de performance de modèles compositionnels dans les architectures GALS“. Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM028.

Der volle Inhalt der Quelle
Annotation:
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. Les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics
Validation, comprising functional verification and performance evaluation, is critical for complex hardware designs. Indeed, due to the high level of parallelism in modern designs, a functionally verified design may not meet its performance specifications. In addition, the later a design error is identified, the greater its cost. Thus, validation of designs should start as early as possible. This thesis proposes a compositional modeling framework, taking into account functional and time aspects of hardware systems, and defines a performance evaluation approach to analyze constructed models. The modeling framework, called Interactive Probabilistic Chain (IPC), is a discrete-time process algebra, representing delays as probabilistic phase type distributions. We defined a branching bisimulation and proved that it is a congruence with respect to parallel composition, a crucial property for compositional modeling. IPCs can be considered as a transposition of Interactive Markov Chains in a discrete-time setting, allowing a precise and compact modeling of fixed hardware delays. For performance evaluation, a fully specified IPC is transformed, assuming urgency of actions, into a discrete-time Markov chain, which can then be analyzed. Additionally, we defined a performance measure, called latency, and provided an algorithm to compute its long-run average distribution. The modeling approach and the computation of latency distributions have been implemented in a tool-chain relying on the CADP toolbox. Using this tool-chain, we studied communication aspects of an industrial hardware design, the xSTtream architecture, developed at STMicroelectronics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Jung, Sung-Cheol. „La personnalité dans le processus d’évaluation : stabilité structurale de l’inventaire NEO-PI-R et prédiction des comportements au travail“. Paris 10, 2007. http://www.theses.fr/2007PA100021.

Der volle Inhalt der Quelle
Annotation:
Le modèle en cinq facteurs de personnalité qui possède une très bonne stabilité structurale interculturelle et inter situationnelle, a permis de mener des études scientifiques sur les rapports entre la personnalité et la performance ou la contre-performance au travail. Les objectifs principaux de cette thèse consistent à examiner 1) les effets de la désirabilité sociale sur la structure et les scores du NEO-PI-R en situation de recrutement, 2) la prédictivité du NEO-PI-R pour la performance et la contre-performance au travail, et 3) l’interprétation des troubles de la personnalité par le biais du NEO-PI-R et son applicabilité dans la prédiction de la contre-performance. Nous avons mené notre recherche auprès de 21,349 candidats aux postes de travail dans une entreprise française de transport public. Nos résultats montrent que la structure du NEO-PI-R n’a pas été affectée par la désirabilité sociale, en revanche les scores ont été affectés en situation de recrutement. Les candidats se sont présentés plus «Consciencieux» et moins «Névrotiques» que les individus en situation sans enjeu. Les scores des troubles de la personnalité calculés à partir du NEO-PI-R présentent des sensibilités correctes malgré la dissymétrie des distributions. Quant aux rapports entre la personnalité et la performance, la dimension «Conscience» prédit positivement la réussite en formation et négativement les comportements contreproductifs, la dimension «Névrosisme» prédit positivement les accidents des conducteurs de bus. L’examen de la prédictivité de la performance avec les facettes et les troubles de la personnalité nous offre des informations supplémentaires
The Five Factor Model of personality which has a very good cross-cultural and trans-situational factorial stability, made it possible to undertake scientific studies on the relationships between personality and performance or counter-productive behaviors at work. The principal aims of this study consist in examining 1) the effects of the social desirability on the factor structure and the scores of the NEO PI R in the situation of recruitment, 2) the predictability of the NEO-PI-R for performance and counter-productive behaviors at work, and 3) the interpretation of the personality disorders by means of the NEO-PI-R and its applicability in the prediction of the counter-performance. We undertook our research with 21,349 job applicants in a French public transportation company. Our results show that the factor structure of the NEO-PI-R was not affected by the social desirability, nevertheless its scores were affected in the situation of recruitment. The applicants presented themselves more "Conscientious" and less "Neurotic" than the individuals of normative sample. The scores of the personality disorders which are calculated by means of the NEO-PI-R have correct sensitivities in spite of the dissymmetry of the distributions. As for the relationship between personality and performance, the dimension "Conscientiousness" predicts positively success in training and negatively counter-productive behaviors, the dimension "Neuroticism" predicts positively bus drivers’ accidents. The examination of the predictability of performance with the facets and the personality disorders offers additional information
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Bou, nader Ralph. „Enhancing email management efficiency : A business process mining approach“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS017.

Der volle Inhalt der Quelle
Annotation:
La gestion des processus métier (BPM) est cruciale pour toute organisation cherchant à améliorer constamment ses opérations. Cela implique plusieurs étapes : conception, modélisation, exécution, surveillance, optimisation et automatisation. Un élément central du BPM est l'analyse des processus, qui consiste à examiner les traces d'exécution pour identifier les inefficacités et les déviations par rapport aux processus prévus. Cette analyse se concentre particulièrement sur la prédiction des processus futurs et sur la vérification de leur conformité. Dans cette thèse, nous nous penchons sur les défis spécifiques à l'analyse des processus métier lorsqu'ils sont pilotés par courriel. Il est essentiel de maîtriser ces pratiques pour rationaliser les opérations et maximiser la productivité. La vérification de conformité garantit que les processus réels respectent les modèles prédéfinis, assurant ainsi le respect des normes et standards. Par ailleurs, la prédiction des processus permet d'anticiper le comportement futur des opérations en se basant sur des données historiques, ce qui aide à optimiser l'utilisation des ressources et à gérer efficacement les charges de travail. Appliquer ces techniques aux processus pilotés par courriel présente des défis uniques. En effet, ces processus manquent souvent des modèles formels trouvés dans les systèmes BPM traditionnels, ce qui nécessite des méthodologies adaptées. Les traces d'exécution dérivées des courriels ont une structure particulière, comprenant des attributs tels que les actes de parole des interlocuteurs et les données commerciales pertinentes. Cette complexité rend l'application des méthodes standard de fouille des processus plus difficile. L'intégration de ces attributs dans les techniques existantes de BPM et les systèmes de courriel demande des algorithmes avancés et une personnalisation importante, d'autant plus que le contexte des communications par courriel est souvent dynamique. Pour relever ces défis, cette thèse propose plusieurs objectifs. D'abord, mettre en place une vérification de conformité multi-aspects et concevoir un système de recommandation de réponse par courriel qui tient compte des activités du processus. Ensuite, il s'agit de concevoir un modèle de processus basé sur des contraintes séquentielles et contextuelles spécifiées par un analyste/expert en données. Il est également crucial de développer des algorithmes pour identifier les événements conformes et non conformes, d'utiliser les traces d'exécution pour prédire les connaissances des processus métier et de proposer des modèles de réponse par courrier électronique. Les principes directeurs de cette approche sont la sensibilité au contexte, l'interdisciplinarité, la cohérence, l'automatisation et l'intégration. L'une des contributions majeures de cette étude est le développement d'un logiciel complet pour l'analyse des processus pilotés par courriel. Ce programme combine la prédiction des processus et la vérification de conformité pour améliorer la communication par courriel. Il propose des modèles de réponse adaptés et évalue la conformité des courriels avant leur envoi. Pour valider ce logiciel, des données de courriels réels ont été utilisées, fournissant ainsi une base pratique pour des comparaisons et des recherches futures
Business Process Management (BPM) involves continuous improvement through stages such as design, modeling, execution, monitoring, optimization, and automation. A key aspect of BPM is Business Process (BP) mining, which analyzes event logs to identify process inefficiencies and deviations, focusing on process prediction and conformance checking. This thesis explores the challenges of BP mining within email-driven processes, which are essential for streamlining operations and maximizing productivity.Conformance checking ensures that actual process execution aligns with predicted models, maintaining adherence to predefined standards. Process prediction forecasts future behavior based on historical data, aiding in resource optimization and workload management. Applying these techniques to email-driven processes presents unique challenges, as these processes lack the formal models found in traditional BPM systems and thus require tailored methodologies.The unique structure of email-derived event logs, featuring attributes such as interlocutor speech acts and relevant business data, complicates the application of standard BP mining methods. Integrating these attributes into existing business process techniques and email systems demands advanced algorithms and substantial customization, further complicated by the dynamic context of email communications.To address these challenges, this thesis aims to implement multi-perspective conformance checking and develop a process-activity-aware email response recommendation system. This involves creating a process model based on sequential and contextual constraints specified by a data analyst/expert, developing algorithms to identify fulfilling and violating events, leveraging event logs to predict BP knowledge, and recommending email response templates. The guiding principles include context sensitivity, interdisciplinarity, consistency, automation, and integration.The contributions of this research include a comprehensive framework for analyzing email-driven processes, combining process prediction and conformance checking to enhance email communication by suggesting appropriate response templates and evaluating emails for conformance before sending. Validation is achieved through real email datasets, providing a practical basis for comparison and future research
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Coste, Nicolas. „Vers la prédiction de performance de modèles compositionnels dans les architectures GALS“. Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00538425.

Der volle Inhalt der Quelle
Annotation:
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Richard, Hugues. „Prédiction de la localisation cellulaire des protéines à l'aide de leurs séquences biologiques“. Phd thesis, Université d'Evry-Val d'Essonne, 2005. http://tel.archives-ouvertes.fr/tel-00011707.

Der volle Inhalt der Quelle
Annotation:
Les compartiments cellulaires, de par les frontières membranaires qui les définissent, permettent l'accomplissement de taches métaboliques diverses au sein de la cellule. Cette spécialisation en domaines intracellulaires induit donc une différentiation dans la fonction des protéines qui les composent. Le grand nombre de gènes orphelins produits ces dernières années par les projets de séquençage motive la mise au point de méthodes efficaces pour la prédiction ab-initio de la localisation cellulaire des protéines.

Ainsi la majorité de ce travail de thèse s'intéresse au problème de la prédiction du compartiment cellulaire d'une protéine à partir de sa séquence primaire.

Nous nous sommes attachés à proposer des alternatives descriptives aux méthodes existantes de prédiction de la localisation cellulaire en utilisant : (1) de nouveaux descripteurs issus de la séquence nucléique, (2) une approche par chaînes de Markov cachées (CMC) et arbres de décision. L'approche par CMC est justifiée biologiquement a posteriori car elle permet la modélisation de signaux d'adressage conjointement à la prise en compte de la composition globale. En outre, l'étape de classification hiérarchique par arbre améliore nettement les résultats de classification. Les résultats obtenues lors des comparaisons avec les méthodes existantes et utilisant des descripteurs fondés sur la composition globale possèdent des performances similaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Rynkiewicz, Joseph. „Modèles hybrides intégrant des réseaux de neurones artificiels à des modèles de chaînes de Markov cachées : application à la prédiction de séries temporelles“. Paris 1, 2000. http://www.theses.fr/2000PA010077.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est la modélisation et la prédiction de séries temporelles par l'utilisation jointe de perceptrons multicouches (MLP) et de chaînes de Markov cachées (HMM). Après un rappel de quelques résultats fondamentaux sur les MLP, nous discutons empiriquement d'une méthode d'estimation et d'initialisation des paramètres (poids) du MLP par recuit simulé. Puis, nous étudions l'estimation des paramètres d'un modèle autorégressif non-linéaire dans le cadre des séries multidimensionnelles. Nous montrons que la fonction de contraste à minimiser dans ce cas est le logarithme du déterminant de la matrice de covariance empirique, puisque cela correspond au maximum de vraisemblance pour un bruit gaussien. On montre que, sous de bonnes conditions de régularité du modèle et sans hypothèse de normalité du bruit, ce contraste a de bonnes propriétés statistiques et nous en déduisons, sous des hypothèses raisonnables, qu'un contraste pénalisé de type BIC est fortement consistant. Nous étudions ensuite les modèles HMM/MLP ou modèles autorégressifs à changements de régime markoviens. Après avoir montré le bon comportement de ce modèle sur une série de laboratoire (série laser), nous étudions les différentes façons d'estimer les paramètres de ces modèles à l'aide de l'estimateur du maximum de vraisemblance (EMV). Généralisant la méthode d'Elliott, nous proposons un algorithme E. M. Ne nécessitant qu'une récurrence avant et autorisant alors une implémentation en ligne, de l'algorithme. Puis, nous montrons qu'une approche plus directe, c'est-à-dire un calcul effectif de la dérivée de la log-vraisemblance donne un algorithme plus performant. Nous étudions alors les propriétés statistiques de l'EMY. Après avoir rappelé les conditions d'existence d'une solution stationnaire générée par ce modèle, nous démontrons la consistance, puis la normalité asymptotique de cet estimateur. Finalement nous utilisons ce modèle pour améliorer les prévisions du taux de pollution en niveau d'ozone dans l'air parisien.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Aussem, Alexandre. „Théorie et applications des réseaux de neurones récurrents et dynamiques à la prédiction, à la modélisation et au contrôle adaptif des processus dynamiques“. Paris 5, 1995. http://www.theses.fr/1995PA05S002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite des réseaux de neurones dynamiques et récurrents (DRNN) obtenus en modélisant les connexions par des filtres autorégressifs. En vertu de leur dynamique interne, ces réseaux à récurrence spatiale et temporelle approximent les lois sous-jacentes qui régissent les séries chronologiques par un système d'équations aux différences non linéaires. Un algorithme d'apprentissage local à propagation d'erreur est présente, lequel réduit substanciellement la complexité d'un algorithme à propagation avant. La procédure doit son efficacité à la décroissance exponentielle du gradient dans le réseau adjoint. Ce résultat est démontré. Le potentiel du modèle DRNN est illustré par des simulations intensives sur des séries chronologiques. Des prédictions sont effectuées sur des données astro-climatiques, des processus chaotiques générés par ordinateur et la série des sunspots. Une analyse théorique est présentée, visant à unifier la prédiction, la modélisation et le contrôle adaptatif sous un même formalisme mathématique. La gestion des ressources d'un réseau ATM est aussi explorée par l'entremise de plusieurs réseaux de neurones distribués sur les commutateurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Boeken, Tom. „Modèles mathématiques pour la radiologie interventionnelle personnalisée : Application au traitement du cancer“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX036.

Der volle Inhalt der Quelle
Annotation:
Les méthodes statistiques contemporaines ont le potentiel de changer la pratique médicale au sein même de nos blocs de radiologie interventionnelle. Ce travail pose quelques jalons pour l'avenir des interventions autonomes dans notre domaine spécifique avec pour fil conducteur la prise en charge des patients atteints de cancer.Nous explorons d'abord l'impact transformateur de l'IA sur les capacités physiques des radiologues interventionnels. A terme, l’autonomie au bloc passera par la robotisation et l’analyse d’images produites en direct. L’intégration de la vision au geste permettra d’avancer vers ce bloc autonome.Nous proposons ensuite une méthode de détection d’anomalies ne dépendant pas de l’organe exploré à partir d’une imagerie en coupe. En exploitant le cadre du Large Diffeomorphic Deformation Metric Mapping (LDDMM), cette approche met en valeur une reconstruction d'objet améliorée et une segmentation de la lésion. Dans le même cadre, nous proposons un classificateur, permettant d’établir une nouvelle lecture de la sélection des patients avant l’intervention.Afin d’aller au-delà des images, des données cliniques issues de l'analyse de l'ADN tumoral circulant sont intégrées dans une étude prospective spécifiquement menée pour ce travail. Des réseaux antagonistes génératifs (GAN) et des algorithmes d'approximation stochastique (MCMC-SAEM) sont utilisés pour prédire les trajectoires des patients. Cette approche permet d'explorer de nouvelles trajectoires, améliorant notre compréhension de la progression de la maladie et de la réponse au traitement en relation avec l'ADN tumoral circulant.Enfin, nous explorons des techniques de visualisation avancée pour l’anatomie vasculaire 3D in vivo et ex vivo. Nous proposons une représentation planaire de l'anatomie, offrant des possibilités en termes de navigation et de classification de l’arbre vasculaire.Ensemble, ces sections offrent des solutions à certains défis menant vers la réalisation d'interventions autonomes guidées par l’image
The integration of computer vision into Image-Guided interventions has the potential to change our medical practice. This work lays some bricks for the future of autonomous interventions in our specific field regarding cancer patients, addressing key components necessary for its realization.We first explore the transformative impact of AI on the physical abilities of interventional radiologists. We emphasize the need to navigate technical and ethical challenges. Interdisciplinary collaboration and robust evaluation processes are highlighted as essential for the safe integration of AI into clinical practiceWe then propose an organ agnostic method for detecting focal anomalies on volumetric cross-sectional imaging. Leveraging the Large Diffeomorphic Deformation Metric Mapping (LDDMM) framework, this approach showcases enhanced object reconstruction and precise lesion localization. In the same framework, we propose a classifier, where patient selection presents unique challenges due to the complex benefice/risk ratios.To go beyond images, clinical data from tumor DNA analysis is integrated into a prospective study specifically conducted for this work. Generative Adversarial Networks (GAN) and Modelling Atlases Using the Markov Chain Monte Carlo - Stochastic Approximation Expectation-Maximization (MCMC-SAEM) Algorithms are used to predict patient trajectories. This approach enables the exploration of new trajectories, enhancing our understanding of disease progression and treatment response in relationship of circulating tumor DNA.Lastly, we explore advanced visualization techniques for in vivo and ex vivo 3D vasculature. We propose a planar representation of undescribed anatomy, offering a promising avenue for further exploration and understanding.Together, these sections offer solutions to parts of the realization of autonomous interventions in our field
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Delecroix, Michel. „Sur l'estimation et la prévision non paramétrique des processus ergodiquesCycles économiques et taches solaires“. Lille 1, 1987. http://www.theses.fr/1987LIL10146.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Renaud, Bertrand. „Aide à la décision médicale par les règles de prédiction clinique au service d'urgence : l'exemple de la pneumopathie aigue communautaire“. Paris 6, 2009. http://www.theses.fr/2009PA066543.

Der volle Inhalt der Quelle
Annotation:
L’accroissement explonentiel des nouvelles connaissances médicales compromet leur mise en application au prix d’une qualité des soins sous optimale. Ceci est encore plus vrai pour la médecine d’urgence, exercice où les contraintes révèlent encore plus crûment les limites cognitives de la prise de décision médicale. En effet, celle-ci repose principalement sur la capacité du médecin à prédire l’évolution du patient en fonction des éléments disponibles et à en déduire une prise en charge ad-hoc. Les règles de prédiction clinique sont la meilleure évidence disponible pour asseoir la décision médicale. Cet exposé rassemble les travaux menés avec l'équipe du service d'urgence du centre hospitalier universitaire H. Mondor sur l'aide à décision pour la prise en charge des pneumonies aiguës communautaires (PAC) basée sur l'utilisation d'une règle de prédiction clinique. Après avoir validé dans le contexte européen le Pneumonia Severity Index (PSI), développé en Amérique du Nord, le second travail présente l’impact de l’utilisation de cette règle en pratique quotidienne dans les services d’urgence français. Puis, dans le cadre d'une évaluation des pratiques professionnelles la mise en œuvre d'une stratégie globale pluridisciplinaire de prise en charge des PAC intégrant le calcul du PSI dans le dossier médical informatisé d’un service d’urgence est rapportée. Enfin, les deux derniers travaux présentent d’une part le développement d'une nouvelle règle de prédiction clinique pour les PAC sévères (REA-ICU: Risk of Early Admission to Intensive Care Unit) et d’autre part la démonstration par recurrence de la pertinence opérationnelle de cette nouvelle règle laissant présager d’une possible amélioration des pratiques médicales
The explonentially increasing amount of medical knowledge compromises its transfer to medical practice and results in suboptimal quality of care. This is of particular interest with regard to emergency medicine. Indeed, in few other domains of medicine is there such variety, novelty, distraction, and chaos, all juxtaposed to a need for expeditious and judicious thinking and in no other area of medicine, is decision density as high. Therefore, emergency medicine is particularly exposed to reveal the cognitive limits of medical decision making. Indeed, medical decision mainly depends on emergency physicians ability to predict patients’ outcome based on data available at presentation. Clinical prediction rules are the best evidence for guiding medical decision. The following text reports several studies conducted by the emergency department team of H Mondor university related hospital about the usefulness of a clinical prediction rule for guiding medical decision making process of patients presenting with a community acquired pneumonia (CAP). First, the European validation of the Pneumonia Severity Index (PSI) that has been intially developped in North America is reported. The second study reports the impact of routine use of the PSI in French emergency departments. Then, we report an evaluation of professional practices consisting in the implemention of a comprehensive strategy that included PSI assessment via the emergency department computerized medical file. Finally, the last two reports present on the one hand the development of a new clinical prediction rule for the severe CAP (REA-ICU: Risk of Early Admission to Intensive Care Unit) and on the other hand a demonstration by recurrence of the actual usefulness of this new rule that could be able to signicantly modify medical practices
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Es-Seddiqi, Mouna. „Le rôle de la voie amygdalo-nigro-striée dans les processus attentionnels dans les apprentissages instrumentaux, classiques et temporels“. Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066072/document.

Der volle Inhalt der Quelle
Annotation:
L’apprentissage associatif est un mécanisme d’une grande complexité, faisant appel à plusieurs processus à la fois. Le processus attentionnel est un des premiers à être mobilisé lors d’une association, il serait même impliqué pour extraire les paramètres temporels associés à un stimulus inconditionnel biologiquement signifiant avant même toute association effective (Balsam, Drew, and Yang, 2002). Certains travaux ont montré l’implication de certaines structures neurobiologiques à travers lesquelles les effets du processus attentionnel pourraient se mettre en place. Pour l’équipe de Holland PC, par exemple, les réponses d’orientation vers un stimulus conditionné (attention top-down)(Lee et al., 2005), impliquent le noyau central de l’amygdale ainsi que les projections dopaminergiques nigro-striées tandis qu’une présentation d’un nouveau stimulus de façon imprévue lors d’une association (attention bottom-up) mobilisera plutôt la substancia inominata qui serait modulé par le noyau central de l’amygdale (CeA) et le cortex pariétal (Holland and Gallagher, 2006). Parallèlement, le processus attentionnel dans une discrimination temporelle, dans lequel l’apprentissage associatif nécessite, outre des stimuli sensoriels discrets, des performances liées au jugement des durées. Dans ce dernier cas, le mécanisme du processus attentionnel mobilise d’autres modèles conceptuels qui gravitent principalement autour du modèle d’horloge interne et en particulier le modèle du striatal beat frequency pour l’explication neurobiologique (Matell and Meck, 2004).Dans le présent travail, nous avions pour ambition de comprendre le rôle de la voie Amygdalo-nigro-striée (ANS) dans la mise en place du processus attentionnel dans un apprentissage associatif orienté vers un stimulus sensoriel discret comme temporel chez le rat. Nous voulions également examiner le rôle de cette voie dans l’évolution du processus attentionnel après surentraînement ou automatisation. Pour la réalisation de cet objectif, nous avons comparé les effets des lésions croisées du CeA dans un hémisphère et la voie nigro-striée dans l’autre hémisphère (disconnection de la voie amygdalo-nigro-striée ; groupe Contra), avec des lésions du CeA et de la voie nigro-striée dans le même hémisphère (groupe Ipsi). Un troisième groupe a fait l’objet d’une lésion bilatérale du CeA seulement (groupe Amy) et un quatrième groupe n’est pas lésé. A travers nos trois groupes expérimentaux (Contra, Ipsi et Amy) et notre groupe contrôle (Sham), nous avons montré l’implication du CeA dans la modulation du processus attentionnel au moment d’un changement dans la situation expérimentale (surprise), aussi bien en présence d’un stimulus sensoriel discret appétitif que d’un stimulus temporel dans un contexte aversif. Nous avons également montré que la voie ANS est impliquée dans la mise en place de l’automatisation et que probablement il y a un effet différenciel entre la partie postérieure et antérieure du CeA. Nos travaux ont mis également en évidence l’implication de la voie nigro-striée dans la discrimination temporelle et de la voie ANS dans le traitement attentionnel dans des tâches de perception temporelle. Ce traitement est différent selon si le jugement concerne des durées courtes ou durées longues
Associative learning is a highly complex mechanism, involving several processes at the same time. The attentional process is one of the first to be mobilized during an association; it would also be involved to extract the temporal parameters associated with an unconditional biologically meaningful stimulus even before any effective association (Balsam, Drew, and Yang 2002). Some studies have shown the involvement of certain neurobiological structures, which may underlie attentional processes. For the Holland PC team, for example, orientation responses to a conditioned stimulus (top-down attention) (Lee et al., 2005) involve the central nucleus and nigro-striatal dopaminergic projections, whereas presentation of a new stimulus during an association (bottom-up attention) would rather imply the substancia inominata which would be modulated by the central nucleus of amygdala (CeA) and the parietal cortex (Holland and Gallagher 2006). At the same time, in temporal discrimination in which associative learning requires, besides discrete sensory stimuli, performances related to the judgment of durations, the mechanism of the attentional process mobilizes other conceptual models that gravitate mainly around the internal clock model and, in particular, the striatal beat frequency model which propose also neurobiological explanations (Matell & Meck, 2004). In this work, we aimed at understanding the role of the Amygdalo-nigro-striatal (ANS) circuit in the development of the attentional process in associative learning oriented towards discrete and temporal sensory stimuli in the rat. We also aimed at examining the role of this circuit in the evolution of the attentional process after over-training permitting the development of habits. In order to achieve this objective, we compared performance of rats with cross-lesion by altering the CeA in one hemisphere and the nigro-striatal circuit in the other hemisphere (Amygdalo-nigro-striatal disconnection; Contra group) to rats with lesions in the same hemisphere (CeA and nigro-striatal circuit: group Ipsi). A third group was submitted to bilateral lesions of the CeA (Amy group). A control group had pseudo lesions (groupe Sham).Through our three experimental groups (Contra, Ipsi and Amy) and the control group (Sham), we have shown the involvement of the CeA in the modulation of the attentional process when a novelty was introduced in the experimental situation (surprise) both in the presence of an appetitive discrete sensory stimulus and of a temporal stimulus in an aversive context. We have also shown that the ANS circuit is involved in habit formation and that there is probably a differential effect between the posterior and anterior part of the CeA. Our work also highlighted the implication of the nigro-striatal circuit in temporal discrimination and of the ANS circuit in the attentional treatment in temporal perception tasks, this effect being different depending on whether the discrimination concerns short or long durations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Zgheib, Rawad. „Algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants“. Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00273585.

Der volle Inhalt der Quelle
Annotation:
On souhaite reconstruire en ligne des signaux à échantillons manquants en utilisant une approche paramétrique. On propose alors des algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants. On s'intéresse premièrement à l'extension des algorithmes de gradient au cas des signaux à échantillons manquants. On propose alors deux alternatives à un algorithme existant fondées sur deux autres prédicteurs. Les algorithmes proposés convergent vers une estimation non biaisée des paramètres. Or les algorithmes de gradient souffrent d'une faible vitesse de convergence. Pour cela, on s'intéresse à l'extension de l'algorithme MCR au cas des signaux à échantillons manquants. On utilise alors l'algorithme MCR pseudo-linéaire pour l'identification conjointement avec un filtre de Kalman pour une prédiction optimale du signal au sens des moindres carrés. L'algorithme résultant permet une identification non biaisée des paramètres. De plus, il est rapide et bien adapté à l'identification de processus non stationnaires. Néanmoins, souhaitant contrôler la stabilité du filtre identifié, on s'intéresse ensuite à une identification fondée sur une structure en treillis du filtre. Ainsi, on propose une extension de l'algorithme de Burg adaptatif au cas des signaux à échantillons manquants, en utilisant pour la prédiction un filtre de Kalman. La stabilité du modèle ainsi identifié est garantie. De plus, l'algorithme s'adapte rapidement aux variations des paramètres. Finalement, on propose d'utiliser les algorithmes proposés dans un système à transmission non uniforme. On obtient ainsi l'amélioration simultanée du RSB et du débit de transmission moyen.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Botterman, Hông-Lan. „Corrélations dans les graphes d'information hétérogène : prédiction et modélisation de liens à partir de méta-chemins“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS083.

Der volle Inhalt der Quelle
Annotation:
De nombreuses entités possiblement de natures différentes sont reliées par des liens pouvant également être de natures différentes. De telles données peuvent être représentées par un graphe d’information hétérogène (heterogeneous information network, HIN). De plus, il existe souvent des corrélations entre entités ou événements de la vie réelle. Une fois ces derniers représentés par des abstractions appropriées telles que les HIN, les corrélations peuvent dès lors se retrouver dans ces graphes particuliers. Motivé par ces considérations, cette thèse s’intéresse aux effets des possibles corrélations entre les liens d’un HIN sur sa structure. Ce présent travail tente de répondre à des questions telles que : y a-t-il des corrélations entre les liens de différents types ? Si oui, est-il possible de les quantifier ? Que signifient-elles ? Est-ce que ces corrélations peuvent servir à prédire l’apparition de liens ? À modéliser des dynamiques de co-évolution ? Les exemples étudiés peuvent être divisés en deux catégories. Premièrement, l’utilisation des corrélations pour la prédiction du poids des liens est étudiée. Il est montré que les corrélations entre les liens, et plus particulièrement entre les chemins, peuvent être utilisées pour récupérer et prédire le poids d’autres liens, d’un type spécifié. Deuxièmement, une dynamique de poids de liens est considérée. Il est montré que la co-évolution de liens peut servir, par exemple, à définir un modèle d’attention entre individus et sujets. Les résultats préliminaires sont en accord avec d’autres présents dans la littérature, principalement relatifs aux modèles de dynamiques d’opinions. Globalement, ce travail illustre l’importance des corrélations entre les liens d’un HIN. En outre, il soutient le fait général que différents types de nœuds et liens abondent dans la nature et qu’il peut être important et instructif de prendre en compte cette diversité afin de comprendre l’organisation et le fonctionnement d’un système
Many entities, possibly of different natures, are linked by physical or virtual links, that may also be of different natures. Such data can be represented by a heterogeneous information network (HIN). In addition, there are often correlations between real-life entities or events. Once represented by suitable abstractions (such as HIN), these correlations can therefore be found in the HIN. Motivated by these considerations, this thesis investigates the effects of possible correlations between the links of an HIN on its structure. This present work aims at answering questions such as: are there indeed correlations between different types of links? If so, is it possible to quantify them? What do they mean? How can they be interpreted? Can these correlations be used to predict the occurrence of links? To model co-evolution dynamics? The examples studied can be divided into two categories. First, the use of correlations for the prediction of the links’ weight is studied. It is shown that correlations between links, and more specifically between paths, can be used to recover and, to some extent, predict the weight of other links of a specified type. Second, a link weight dynamics is considered. It is shown that link co-evolution can be used, for example, to define a model of attention between individuals and subjects. The preliminary results are in agreement with others in the literature, mainly related to models of opinion dynamics. Overall, this work illustrates the importance of correlations between the links of an HIN. In addition, it supports the general fact that different types of nodes and links abound in nature and that it could be important and instructive to take this diversity into account in order to understand the organization and functioning of a system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Legrand, Valentine. „Modélisation des processus de précipitation et prédiction des propriétés mécaniques résultantes dans les alliages d’aluminium à durcissement structural : Application au soudage par Friction Malaxage (FSW) de tôles AA2024“. Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0090/document.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine aéronautique, le soudage par friction-malaxage (FSW – Friction Stir Welding) apparait comme un procédé innovant d’assemblage des fuselages, allégeant la structure avion en remplaçant la technique actuelle de rivetage. La simulation numérique est un support permettant de mieux comprendre et maîtriser ce procédé. L’alliage d’aluminium étudié dans ce projet est de type AA2024-T3 et tire principalement ses propriétés du durcissement structural. Modéliser l’évolution de la précipitation s’avère essentiel pour définir les propriétés finales de la soudure. Le modèle choisi doit prendre en considération les familles de précipités formés et les processus de germination, croissance et coalescence. Il doit être précis, robuste et rapide pour être applicable au procédé FSW. Un modèle de classe couplé à des calculs d’équilibre thermodynamiques a été choisi dans cette étude. Pour définir la cinétique de croissance d’un précipité, une cinétique de croissance initialement établie pour un alliage binaire a été étendue à un alliage multicomposé. Connaissant la distribution en taille des familles de précipités, les propriétés mécaniques sont définies selon un modèle empirique. La calibration anisotherme a été réalisée via un essai de DSC où signaux expérimentaux et simulés ont été comparés pour déterminer la teneur initiale des phases en présence et définir les paramètres matériaux de l’alliage. L’essai isotherme a établi le lien entre état de précipitation et propriétés mécaniques résultantes. Le modèle est appliqué à la simulation des évolutions microstructurales au cours d’une soudure FSW afin de prédire les propriétés finales du joint soudé. Les évolutions thermiques sont déterminées via l’utilisation d’un modèle macroscopique développé parallèlement dans une thèse, également portée par la Chaire Daher. Les données numériques obtenues sont comparées à des expériences instrumentées, montrant une bonne estimation des duretés. Les profils expérimentaux sont retrouvés, de même que les caractéristiques des différents domaines, validant l’approche et sa capacité à simuler efficacement les évolutions des processus de précipitation
In the aeronautic industry, the friction stir welding (FSW) process is seen as an interesting option to lighten aircraft structure by replacing the standard riveting technology used to join parts. Numerical simulation is chosen to improve understanding of the different mechanisms occurring during FSW. The aluminum alloy studied is an AA2024-T3 grade. Its mechanical properties mainly derive from structural hardening mechanisms. An accurate model of precipitate evolution is essential to define hardness profile of the weld. The chosen simulation has to be robust and time-efficient in order to be suitable for the FSW process modeling. It must consider the two families of precipitates (GPB zones and S phase) and model nucleation, growth and coarsening phenomena. A PSD model is chosen and coupled with thermodynamic equilibrium calculations. To define the growth kinetics of precipitates, an exact analytical solution is extended to a multi-component alloy. Knowing the distribution of precipitates size, the mechanical properties are defined based on an empirical model. The amount and properties of phases are initialized through non-isothermal DSC calibration and comparison between experimental heat flux and simulated one. Isothermal test is selected to establish the link between precipitation state and mechanical properties. The model is applied to the simulation of microstructural evolution in FSW in order to predict the final properties of the weld. Thermal changes are determined through the use of a macroscopic model developed during a twin project within the Chair Daher. Numerical results are compared with instrumented experiments and show a good estimate of hardness. The experimental profiles are found, as well as the characteristics of the different areas. This validates the approach and its efficiency to simulate the evolution of the precipitation process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Lafitte, Anthony. „Prédiction de l'aéroacoustique de jets subsoniques confinés à l'aide d'une méthode stochastique de génération de la turbulence“. Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00805414.

Der volle Inhalt der Quelle
Annotation:
Au sein d'un échangeur à air, les trompes à air permettent de créer l'écoulement d'air froid nécessaireà son bon fonctionnement. Ces dispositifs, qui peuvent ^etre assimilés à des jets subsoniques confinésen conduit, peuvent contribuer au bruit rayonné par les avions lors des phases au sol. Nous proposonsdans cette thèse de développer un outil numérique prédictif de l'acoustique rayonnée par ces dispositifsafin de pouvoir proposer des solutions de réduction de bruit appropriées. Cet outil est adapté au contexteindustriel de Liebherr Aerospace. Une méthode stochastique permet, à partir d'un calcul stationnaireRANS, de générer un champ de vitesse turbulente qui autorise la formation d'un terme de forçage dansles équations d'Euler linéarisées qui sont alors utilisées comme un opérateur de propagation. Un nouveaumodèle stochastique basé sur l'hypothèse de sweeping est développé. Ce dernier permet de produiredes champs instationnaires respectant certaines propriétés aérodynamiques statistiques dans le cadre dejets libres subsoniques. Cette méthode est couplée avec le solveur Euler de l'Onera sAbrinA_v0 et l'outilrésultant est appliqué sur le cas d'un jet libre subsonique à M=0.72. Moyennant une calibration duterme source, la méthodologie permet de reproduire les spectres acoustiques en champ lointain, exceptépour les angles faibles. L'outil numérique est ensuite couplé avec un solveur FW-H pour étudier le casconcret de la trompe à air. Les résultats aérodynamiques et acoustiques sont validés par comparaison àune base de données aérodynamique et acoustique constituée au préalable à partir d'une campagne d'essaiscomprenant des mesures par anémométrie laser Doppler à l'intérieur du conduit et des microphonesacoustiques en champ lointain.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Ravel, Sabrina. „Implication des neurones à activité tonique du stiatum dans les processus cognitifs et motivationnels : Etude électrophysiologique de l'influence de la prédiction temporelle et de la signification affective des stimuli chez le singe“. Aix-Marseille 2, 2001. http://www.theses.fr/2001AIX22004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Maes, Francis. „Learning in Markov decision processes for structured prediction : applications to sequence labeling, tree transformation and learning for search“. Paris 6, 2009. http://www.theses.fr/2009PA066500.

Der volle Inhalt der Quelle
Annotation:
De nombreux problèmes d'apprentissage supervisé font intervenir des sorties complexes : séquences, arbres ou graphes. La prédiction de sorties structurées pose d'importants défis, liés à la nature combinatoire du problème. Dans cette thèse, je propose une nouvelle formulation basée sur le cadre des processus de décision Markoviens. Cette formulation permet d'utiliser des algorithmes d'apprentissage par renforcement pour traiter des problèmes particulièrement complexes qu'aucun algorithme n'était en mesure de résoudre jusqu'alors. La validation est effectuée sur deux tâches: l'étiquetage de séquences et la transformation d'arbres. Les résultats obtenus sur les séquences sont compétitifs avec l'état de l'art et pour certains significativement meilleurs. La transformation d'arbres est un des problèmes d'apprentissage statistique les plus complexes abordés à ce jour. Je démontre l'efficacité de l'apprentissage par renforcement pour ce problème sur cinq jeux de données de large échelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Hourcade-Potelleret, Florence. „De la dose à l'effet clinique : utilisation de la modélisation dans les différentes étapes du processus de prédiction du critère clinique : Exemple avec un nouveau médicament en prévention secondaire de la morbidité-mortalité cardiovasculaire“. Phd thesis, Université Jean Monnet - Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00979667.

Der volle Inhalt der Quelle
Annotation:
Les données épidémiologiques montrent une association inverse entre les taux de HDL-cholestérol (HDL-C) et le risque d'évènements cardiovasculaires. Des traitements ayant montré une augmentation significative du HDL-C, comme les inhibiteurs de la protéine de transfert des esters de cholestérol, devraient donc permettre de réduire le risque cardio-vasculaire. En utilisant différentes techniques de modélisation, nous avons tenté de quantifier l'efficacité attendue sur les événements cardiovasculaires de l'un d'entre eux, le dalcétrapib, ne disposant que de données pharmacocinétiques et pharmacodynamiques. Tout d'abord, afin d'établir la relation pharmacocinétique / pharmacodynamique entre les concentrations et la modification de HDL-C, nous avons analysé les données individuelles des patients dyslipidémiques par une approche de population. Une hausse moyenne de HDL-C de 26.4 % par rapport au placebo était alors anticipée. Nous avons ensuite tenté de corréler l'effet observé sur l'HDL-C et l'effet clinique à partir de données d'autres études par méta-régression des essais évaluant l'effet des principaux hypolipémiants en prévention secondaire. Cette modélisation n'a pas permis de montrer de corrélation entre le changement de l'HDL-C (P5 P95 :-3.0 et 36 %) et la réduction du risque cardiovasculaire. Une analyse de sensibilité par type de traitement suggère qu'une même hausse de HDL-C entre deux classes thérapeutiques pourrait se traduire par un effet clinique dissemblable, indiquant que HDL-C ne peut pas être utilisé comme critère intermédiaire puisqu'il ne serait pas un prédicteur indépendant du risque cardiovasculaire
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Nguyen, Thi Thu Tam. „Learning techniques for the load forecasting of parcel pick-up points“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG034.

Der volle Inhalt der Quelle
Annotation:
La livraison de colis en points relais (PR) ou en consigne automatique est une alternative intéressante à la livraison à domicile, que ce soit pour des achats auprès de commerçants en ligne (B2C) ou sur des plateformes de vente entre particuliers (C2C). Un colis peut être livré en PR à un coût réduit et reste plusieurs jours à disposition du client avant d'être retourné au vendeur. Cependant, lorsque le PR choisi est saturé, le colis peut être refusé par le gestionnaire du PR et livré à un autre PR sur la tournée du transporteur. Ceci engendre une perte de temps pour le client et donc du mécontentement. Afin d'améliorer la satisfaction du client, lors d'un achat de produit il est donc important que le gestionnaire des PR (GPR) ne propose que des PR qui seront susceptibles d'accepter les colis. Cette tâche est complexe à cause des délais de livraison : un colis n'affecte la charge d'un PR qu'un à quelques jours après la commande, selon le transporteur. Cette thèse a pour objectif de prédire l'évolution de la charge d'un PR afin de permettre à un GPR de mieux équilibrer les charges de PR géographiquement proches et de limiter le risque de refus d'un colis. Pour cela, une analyse des historiques de charges de PR est effectuée afin de déterminer les paramètres importants influant sur la charge. Des modèles statistiques et issus de l'intelligence artificielle sont ensuite comparés. Dans une première partie, nous considérons la charge des PR liée aux achats en ligne effectués auprès de sites marchands (B2C). La modélisation de l'évolution de la charge d'un PR tient compte du nombre de colis dans chaque état (prêt à être expédié, en transit, livré au PR). Ensuite, le cycle de vie d'un colis est pris en compte dans le processus de prédiction, via des modèles des flux de commandes, des délais de livraison, et du processus de retrait. L'approche proposée reposant sur un modèle est comparée avec des approches exploitant la série temporelle du nombre de livraisons, de retraits et de la charge en termes de précision de prédiction. Dans un deuxième temps, nous considérons la partie de la charge des PR liée aux colis issus des sites de vente entre particuliers (C2C). Dans cette approche, la probabilité qu'un colis contribue à la charge d'un PR est évaluée en fonction de la connaissance de l'état du colis au moment de la prédiction. Le cycle de vie du colis est modélisé par un processus markovien à sauts. De plus, le nombre de colis déposés à destination d'un PR donné est décrit par un modèle autorégressif à changements markoviens (MSAR) pour prendre en compte de la non-stationarité de l'activité de vente entre particuliers. Les paramètres des modèles sont estimés à partir de données historiques sur les dates de chaque étape: dépôt, collecte, livraison et retrait. Il est ensuite possible de déduire la probabilité de la charge future d'un PR. Cette approche est à nouveau comparée à des techniques exploitant la série temporelle de la charge (modèle de Holt-Winters, SARIMA ou LSTM). Dans les deux cas, l'approche proposée considérant le cycle de vie des colis donne de meilleures performances de prédiction, en particulier pour la prédiction jusqu'à quatre jours à l'avance dans le cas du B2C et jusqu'à six jours à l'avance dans le cas du C2C, en comparaison avec les modèles de type LSTM, Holt-Winters, ou SARIMA. Ces résultats permettent de prédire la charge d'un PR avec une erreur relative de 3 colis à 1 jour, et de 7 colis à 3 jours pour les colis B2C, et de 5 colis à 1 jour et de 8 colis à 7 jours pour les colis C2C. Compte-tenu des délais entre commande et livraison (en général de 1 à 3 jours pour le B2C et de 4-5 jours pour le C2C), ces techniques de prédiction sont utiles pour permettre un équilibrage de la charge de PR voisins. Les travaux futurs seront pour but d’améliorer les approches de prévision et de déterminer une méthode d’équilibrage de charge pour mieux gérer le flux de colis
Pick-Up Points (PUP) represent an alternative delivery option for purchases from online retailers (Business-to-Customer, B2C) or online Customer-to-Customer (C2C) marketplaces. Parcels are delivered at a reduced cost to a PUP and wait until being picked up by customers or returned to the original warehouse if their sojourn time is over. When the chosen PUP is overloaded, the parcel may be refused and delivered to the next available PUP on the carrier tour. PUP load forecasting is an efficient method for the PUP management company (PMC) to better balance the load of each PUP and reduce the number of rerouted parcels. This thesis aims to describe the parcel flows in a PUP and to proposed models used to forecast the evolution of the load. For the PUP load associated with the B2C business, the parcel life-cycle has been taken into account in the forecasting process via models of the flow of parcel orders, the delivery delays, and the pick-up process. Model-driven and data-driven approaches are compared in terms of load-prediction accuracy. For the PUP load associated with the C2C business, the daily number of parcels dropped off with a given PUP as target is described by a Markov-Switching AutoRegressive model to account for the non-stationarity of the second-hand shopping activity. The life-cycle of each parcel is modeled by a Markov jump process. Model parameters are evaluated from previous parcel drop-off, delivery, and pick-up records. The probability mass function of the future load of a PUP is then evaluated using all information available on parcels with this PUP as target. In both cases, the proposed model-driven approaches give, for most of the cases, better forecasting performance, compared with the data-driven models, involving LSTM, Random forest, Holt-Winters, and SARIMA models, up to four days ahead in the B2C case and up to six days ahead in the C2C case. The first approach applied to the B2C parcel load yields an MAE of 3 parcels for the one-day ahead prediction and 8 parcels for the four-day ahead prediction. The second approach applied to the C2C parcel load yields an MAE of 5 parcels for the one-day ahead prediction and 8 parcels for the seven-day ahead prediction. These prediction horizons are consistent with the delivery delay associated with these parcels (1-3 days in the case of a B2C parcel and 4-5 days in the case of a C2C parcel). Future research directions aim at optimizing the prediction accuracy, especially in predicting future orders and studying a load-balancing approach to better share the load between PUPs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Salhi, Asma. „Towards a combined statistical shape and musculoskeletal modeling framework for pediatric shoulder joint“. Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0137/document.

Der volle Inhalt der Quelle
Annotation:
La paralysie obstétricale du plexus brachial (POPB) est une paralysie du membre supérieur qui survient à la naissance et peut entraîner une déformation de l'articulation et un fonctionnement anormal de l'épaule. Bien que le traitement de la POPB tente de restaurer la fonction de l'épaule, la pathomécanique sous-jacente n'est pas encore clairement comprise. Les modèles computationnels sont efficaces pour fournir de telles informations, mais il n'existe aucun modèle d'articulation de l'épaule pédiatrique pour comprendre la POPB. Ainsi, ce travail de recherche a pour but de construire un framework combinant les avancées dans les domaines de la modélisation statistique de forme (MSF) et de la modélisation musculo-squelettique multi-corps (MCM). Due à l’insuffisance des données dans la cohorte pédiatrique, ce cadre a été mis en place pour l'articulation de l'épaule adulte. Pour cela, la précision de la MSF a été illustrée en prédisant 1) la forme de l'omoplate pré-morbide, et 2) les régions d'insertion musculaire sur l'omoplate et l'humérus. Cette méthode a ensuite été intégrée aux modèles MCM pour l'épaule adulte pour souligner l’importance des modèles spécifique-patient pour l’usage clinique. Pour le second objectif de cette thèse, j'ai développé un modèle MCM pédiatrique du complexe articulaire de l'épaule en utilisant le logiciel OpenSim. Grâce aux approches de cinématique et dynamique inverse, le modèle a permis de déterminer les différences de dynamique articulaires entre le côté sain et le côté pathologique. Les travaux futurs seront axés sur l’extension du travail réalisé pour la population pédiatrique afin de comprendre la pathomécanique de POPB
Obstetrician Brachial Plexus Palsy (OBPP) is a common birth injury in children leading to shoulder joint deformity and abnormal function. While the management of OBPP disorder focuses on restoring the shoulder joint function, the underlying pathomechanics is not clearly understood yet. Computational models are effective to provide such insights, however, there is no pediatric shoulder joint model to understand the OBPP disorder. Thus, the global aim of this research work was to build a computational framework combining the advances in statistical shape modeling (SSM) and multi-body musculoskeletal modeling (MSKM) domains. Due to a lack of sufficient data in the pediatric cohort, I first developed the framework for adult shoulder joint. For this, I illustrated the accuracy of SSM in predicting 1) missing part of the scapula, and 2) muscle insertion regions on scapula and humerus bones. This method was then integrated with adult shoulder MSKMs to show the differences between generic and subject specific constructs. For the second aim of this thesis, I developed a pediatric MSKM of the shoulder joint complex using OpenSim software. Pediatric MSKM represented scapulothoracic, sternoclavicular, acromioclavicular, and glenohumeral joints with 13 degrees of freedom, and actuated by 52 musculotendon actuators representing 14 shoulder muscles. Using inverse kinematics and inverse dynamics approaches, the model was used to determine the differences in joint kinematics, and joint dynamics between healthy and unhealthy side of a single OBPP subject. Future work is focused on completing the framework on pediatric population and understanding the pathomechanics of OBPP
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Rousseeuw, Kévin. „Modélisation de signaux temporels hautes fréquences multicapteurs à valeurs manquantes : Application à la prédiction des efflorescences phytoplanctoniques dans les rivières et les écosystèmes marins côtiers“. Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0374/document.

Der volle Inhalt der Quelle
Annotation:
La prise de conscience des problèmes d'environnement et des effets directs et indirects des activités humaines a conduit à renforcer la surveillance haute fréquence des écosystèmes marins par l'installation de stations de mesures multicapteurs autonomes. Les capteurs, installés dans des milieux hostiles, sont sujets à des périodes de calibration, d'entretien voire des pannes et sont donc susceptibles de générer des données bruitées, manquantes voire aberrantes qu'il est nécessaire de filtrer et compléter avant toute exploitation ultérieure. Dans ce contexte, l'objectif du travail est de concevoir un système numérique automatisé robuste capable de traiter de tel volume de données afin d’améliorer les connaissances sur la qualité des systèmes aquatiques, et plus particulièrement en considérant le déterminisme et la dynamique des efflorescences du phytoplancton. L'étape cruciale est le développement méthodologique de modèles de prédiction des efflorescences du phytoplancton permettant aux utilisateurs de disposer de protocoles adéquats. Nous proposons pour cela l'emploi du modèle de Markov caché hybridé pour la détection et la prédiction des états de l'environnement (caractérisation des phases clefs de la dynamique et des caractéristiques hydrologiques associées). L'originalité du travail est l'hybridation du modèle de Markov par un algorithme de classification spectrale permettant un apprentissage non supervisé conjoint de la structure, sa caractérisation et la dynamique associée. Cette approche a été appliquée sur trois bases de données réelles : la première issue de la station marine instrumentée MAREL Carnot (Ifremer) (2005-2009), la seconde d’un système de type Ferry Box mis en œuvre en Manche orientale en 2012 et la troisième d’une station de mesures fixe, installée le long de la rivière Deûle en 2009 (Agence de l’Eau Artois Picardie - AEAP). Le travail s’inscrit dans le cadre d’une collaboration étroite entre l'IFREMER, le LISIC/ULCO et l'AEAP afin de développer des systèmes optimisés pour l’étude de l’effet des activités anthropiques sur le fonctionnement des écosystèmes aquatiques et plus particulièrement dans le contexte des efflorescences de l’algue nuisible, Phaeocystis globosa
Because of the growing interest for environmental issues and to identify direct and indirect effects of anthropogenic activities on ecosystems, environmental monitoring programs have recourse more and more frequently to high resolution, autonomous and multi-sensor instrumented stations. These systems are implemented in harsh environment and there is a need to stop measurements for calibration, service purposes or just because of sensors failure. Consequently, data could be noisy, missing or out of range and required some pre-processing or filtering steps to complete and validate raw data before any further investigations. In this context, the objective of this work is to design an automatic numeric system able to manage such amount of data in order to further knowledge on water quality and more precisely with consideration about phytoplankton determinism and dynamics. Main phase is the methodological development of phytoplankton bloom forecasting models giving the opportunity to end-user to handle well-adapted protocols. We propose to use hybrid Hidden Markov Model to detect and forecast environment states (identification of the main phytoplankton bloom steps and associated hydrological conditions). The added-value of our approach is to hybrid our model with a spectral clustering algorithm. Thus all HMM parameters (states, characterisation and dynamics of these states) are built by unsupervised learning. This approach was applied on three data bases: first one from the marine instrumented station MAREL Carnot (Ifremer) (2005-2009), second one from a Ferry Box system implemented in the eastern English Channel en 2012 and third one from a freshwater fixed station in the river Deûle in 2009 (Artois Picardie Water Agency). These works fall within the scope of a collaboration between IFREMER, LISIC/ULCO and Artois Picardie Water Agency in order to develop optimised systems to study effects of anthropogenic activities on aquatic systems functioning in a regional context of massive blooms of the harmful algae, Phaeocystis globosa
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Sànchez, Pérez Andrés. „Agrégation de prédicteurs pour des séries temporelles, optimalité dans un contexte localement stationnaire“. Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0051/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse regroupe nos résultats sur la prédiction de séries temporelles dépendantes. Le document comporte trois chapitres principaux où nous abordons des problèmes différents. Le premier concerne l’agrégation de prédicteurs de décalages de Bernoulli Causales, en adoptant une approche Bayésienne. Le deuxième traite de l’agrégation de prédicteurs de ce que nous définissions comme processus sous-linéaires. Une attention particulaire est portée aux processus autorégressifs localement stationnaires variables dans le temps, nous examinons un schéma de prédiction adaptative pour eux. Dans le dernier chapitre nous étudions le modèle de régression linéaire pour une classe générale de processus localement stationnaires
This thesis regroups our results on dependent time series prediction. The work is divided into three main chapters where we tackle different problems. The first one is the aggregation of predictors of Causal Bernoulli Shifts using a Bayesian approach. The second one is the aggregation of predictors of what we define as sub-linear processes. Locally stationary time varying autoregressive processes receive a particular attention; we investigate an adaptive prediction scheme for them. In the last main chapter we study the linear regression problem for a general class of locally stationary processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Dujardin, Alain. „Prédiction des mouvements du sol dus à un séisme : différences de décroissance entre petits et gros séismes et simulations large bande par fonctions de Green empiriques“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4070/document.

Der volle Inhalt der Quelle
Annotation:
La prédiction des mouvements du sol générés par un séisme est un enjeu majeur pour la prise en compte du risque sismique. C’est l’un des objectifs du projet SIGMA dans le cadre duquel j’ai réalisé ma thèse. Celle-ci se compose de deux parties. La première se concentre sur la dépendance à la magnitude de la décroissance des paramètres des mouvements du sol avec la distance. Celle-ci est un sujet de préoccupation aussi bien pour l’utilisation des relations d’atténuation (GMPEs), que pour les méthodes basées sur l’utilisation de petits évènements en tant que fonctions de Green empiriques. Nous avons démontré qu’aux distances les plus faibles (inférieures à la longueur de la faille), l'effet de saturation dû aux dimensions de la faille est prépondérant. Aux distances plus importantes, l'effet de l’atténuation anélastique devient prépondérant. Nous avons donc montré qu’il pouvait être délicat de mélanger des données de différentes régions dans les GMPEs, et validé l’utilisation des fonctions de Green empiriques à toutes les distances. Dans la deuxième partie sont testées 3 différentes méthodes de simulations dans un contexte complexe : un code combinant une source étendue en k2 et des EGFs, un code point-source EGFs et un code stochastique. Nous avons choisi de travailler sur le séisme de magnitude Mw 5.9 (29 mai 2012) situé dans un bassin sédimentaire profond (la plaine du Po), et qui a engendré des sismogrammes souvent dominés par les ondes de surface. On y démontre que sans connaissance à priori du milieu de propagation, les méthodes basées sur des EGF permettent de reproduire les ondes de surface, les valeurs de PGA, de PGV, ainsi que les durées des signaux générés
The prediction of ground motion generated by an earthquake is a major issue for the consideration of seismic risk. This is one of the objectives of SIGMA project in which I realized my thesis. It consists of two parts. The first focuses on the magnitude dependence of the ground motion parameters decay with distance. This is a concern both for the use of relation of attenuation (GMPEs) than methods based on the use of small events as empirical Green functions. We have shown that as the shorter distances (less than the length of the fault), the saturation effect due to the fault size is preponderant. For larger distances, it’s the eanelastic attenuation effect which becomes predominant. So we have shown that it can be tricky to mix data from different regions in GMPEs and we validated the use of empirical Green functions at every distance. In the second part are tested three different simulation methods in a complex context: a code combining finite fault source in k2 and EGFs, a point-source code with EGFs and a stochastic code. We chose to work on the Mw 5.9 earthquake (May 29, 2012) which occurs in a deep sedimentary basin (the Po plain), and which has generated seismograms often dominated by surface waves. We show that without a priori knowledge of the propagation medium, methods based on EGFs can reproduce surface waves, the values of PGA, PGV, and the durations of the signals generated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Sànchez, Pérez Andrés. „Agrégation de prédicteurs pour des séries temporelles, optimalité dans un contexte localement stationnaire“. Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0051.

Der volle Inhalt der Quelle
Annotation:
Cette thèse regroupe nos résultats sur la prédiction de séries temporelles dépendantes. Le document comporte trois chapitres principaux où nous abordons des problèmes différents. Le premier concerne l’agrégation de prédicteurs de décalages de Bernoulli Causales, en adoptant une approche Bayésienne. Le deuxième traite de l’agrégation de prédicteurs de ce que nous définissions comme processus sous-linéaires. Une attention particulaire est portée aux processus autorégressifs localement stationnaires variables dans le temps, nous examinons un schéma de prédiction adaptative pour eux. Dans le dernier chapitre nous étudions le modèle de régression linéaire pour une classe générale de processus localement stationnaires
This thesis regroups our results on dependent time series prediction. The work is divided into three main chapters where we tackle different problems. The first one is the aggregation of predictors of Causal Bernoulli Shifts using a Bayesian approach. The second one is the aggregation of predictors of what we define as sub-linear processes. Locally stationary time varying autoregressive processes receive a particular attention; we investigate an adaptive prediction scheme for them. In the last main chapter we study the linear regression problem for a general class of locally stationary processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Platini, Marc. „Apprentissage machine appliqué à l'analyse et à la prédiction des défaillances dans les systèmes HPC“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM041.

Der volle Inhalt der Quelle
Annotation:
Les systèmes informatiques dédiés à la haute performance (HPC) se livrent à une course à la puissance de calcul. Cette course se concrétise principalement par une augmentation de leur taille et de leur complexité. Cependant, cette augmentation entraîne des défaillances fréquentes qui peuvent réduire la disponibilité des systèmes HPC.Pour gérer ces défaillances et être capable de réduire leur influence sur les systèmes HPC, il est important de mettre en place des solutions permettant de comprendre les défaillances, voire de les prédire. En effet, les systèmes HPC produisent une grande quantité de données de supervision qui contiennent de nombreuses informations utiles à propos de leur état de fonctionnement. Cependant, l'analyse de ces données n'est pas facile à réaliser et peut être très fastidieuse car elles reflètent la complexité et la taille des systèmes HPC. Les travaux présentés dans cette thèse proposent d'utiliser des solutions d’apprentissage machine pour réaliser de manière automatisée cette analyse. De manière plus précise, cette thèse présente deux contributions principales : la première s'intéresse à la prédiction des surchauffes des processeurs dans les systèmes HPC, la deuxième se concentre sur l’analyse et la mise en évidence des relations entre les événements présents dans les journaux systèmes. Ces deux contributions sont évaluées sur des données réelles provenant d’un système HPC de grande taille utilisé en production.Pour prédire les surchauffes de processeur, nous proposons une solution qui utilise uniquement la température des processeurs. Elle repose sur l’analyse de la forme générale de la température avant un événement de surchauffe et sur l’apprentissage automatisé des corrélations entre cette forme et les événements de surchauffe grâce à un modèle d’apprentissage supervisé. L’utilisation de la forme générale des courbes et d'un modèle d'apprentissage supervisé permet l'apprentissage en utilisant des données de température avec une faible précision et en utilisant un nombre de cas de surchauffe restreint. L'évaluation de la solution montre qu'elle est capable de prédire plusieurs minutes en avance les surchauffes avec une précision et un rappel élevés. De plus, l’évaluation de ces résultats montre qu’il est possible d'utiliser des actions préventives reposant sur les prédictions faites par la solution pour réduire l'influence des surchauffes sur le système.Pour analyser et mettre en évidence de manière automatisée les relations causales entre dans les événements décrits dans les journaux des systèmes HPC, nous proposons une utilisation détournée d'un modèle d'apprentissage machine profond. En effet, ce type de modèle est classiquement utilisé pour des tâches de prédiction. Grâce à l'ajout d'une nouvelle couche proposée par des travaux de l'état de l'art étudiant les méthodes d'apprentissage machine, il est possible de déterminer l’importance des entrées de l’algorithme dans sa prédiction. En utilisant les informations sur l'importance des entrées, nous sommes capables de reconstruire les relations entre les différents événements. L’évaluation de la solution montre qu'elle est capable de mettre en évidence les relations de la grande majorité des événements survenant sur un système HPC. De plus, son évaluation par des administrateurs montre la validité des corrélations mises en évidence.Les deux contributions et leurs évaluations montrent le bénéfice de l'utilisation de solutions d'apprentissage machine pour la compréhension et la prédiction des défaillances dans les systèmes HPC en automatisant l'analyse des données de supervision
With the increase in size of supercomputers, also increases the number of failures or abnormal events. This increase of the number of failures reduces the availability of these systems.To manage these failures and be able to reduce their impact on HPC systems, it is important to implement solutions to understand the failures and to predict them. HPC systems produce a large amount of monitoring data that contains useful information about the status of these systems. However, the analysis of these data is difficult and can be very tedious because these data reflect the complexity and the size of HPC systems. The work presented in this thesis proposes to use machine-learning-based solutions to analyse these data in an automated way. More precisely, this thesis presents two main contributions: the first one focuses on the prediction of processors overheating events in HPC systems, the second one focuses on the analysis and the highlighting of the relationships between the events present in the system logs. Both contributions are evaluated on real data from a large HPC system used in production.To predict CPU overheating events, we propose a solution that uses only the temperature of the CPUs. It is based on the analysis of the general shape of the temperature prior to an overheating event and on the automated learning of the correlations between this shape and overheating events using a supervised learning model. The use of the general curve shape and a supervised learning model allows learning using temperature data with low accuracy and using a limited number of overheating events. The evaluation of the solution shows that it is able to predict overheating events several minutes in advance with high accuracy and recall. Furthermore, the evaluation of these results shows that it is possible to use preventive actions based on the predictions made by the solution to reduce the impact of overheating events on the system.To analyze and to extract in an automated way the causal relations between the events described in the HPC system logs, we propose an unconventional use of a deep machine learning model. Indeed, this type of model is classically used for prediction tasks. Thanks to the addition of a new layer proposed by state-of-the-art contributions of the machine learning community, it is possible to determine the weight of the algorithm inputs associated to its prediction. Using this information, we are able to detect the causal relations between the different events. The evaluation of the solution shows that it is able to extract the causal relations of the vast majority of events occurring in an HPC system. Moreover, its evaluation by administrators validates the highlighted correlations.Both contributions and their evaluations show the benefit of using machine learning solutions for understanding and predicting failures in HPC systems by automating the analysis of supervision data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bogadhi, Amarender R. „Une étude expérimentale et théorique de l'intégration de mouvement pour la poursuite lente : Un modèle Bayesien récurrent et hiérarchique“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM5009/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se compose de deux parties, concernant deux études expérimentales sur les mouvements oculaires de poursuite lente d'un stimulus visuel en mouvement (barre inclinée). La première étude aborde l'intégration dynamique de signaux locaux de mouvement visuel provenant de la rétine, tandis que la seconde porte sur l'influence de signaux extra-rétiniens sur l'intégration du mouvement. Un cadre théorique plus général est également proposé, sur la base d'un modèle bayésien récurrent et hiérarchique pour la poursuite lente. Pour la première étude, l'intégration dynamique de mouvement a été analysée en variant le contraste et la vitesse de la barre inclinée. Les résultats montrent que des vitesses plus élevées et des valeurs plus basses de contraste produisent un plus fort biais dans la direction initiale de poursuite et que successivement la dynamique d'intégration de mouvement est plus lente pour les contrastes faibles. Une version en boucle ouverte d'un modèle bayésien est proposée, où un réseau bayésien récurrent est connecté en cascade avec un modèle du système oculomoteur pour générer des réponses de poursuite lente. Les réponses du modèle reproduisent qualitativement les différentes dynamiques observées dans les réponses de poursuite à la barre inclinée en fonction des vitesses et des contrastes différents. La deuxième étude a enquêté sur les interactions dynamiques entre les signaux rétiniens et extra-rétiniens dans l'intégration dynamique de mouvement pour la poursuite lente par le moyen d'une suppression transitoire de la cible à différents moments de la poursuite, et notamment au cours de la phase de boucle ouverte et pendant l'état d'équilibre
This thesis addresses two studies by studying smooth pursuit eye movements for a translating tilted bar stimulus. First, the dynamic integration of local visual motion signals originating from retina and second, the influence of extra-retinal signals on motion integration. It also proposes a more generalized, hierarchical recurrent bayesian framework for smooth pursuit. The first study involved investigating dynamic motion integration for varying contrasts and speeds using a tilted bar stimuli. Results show that higher speeds and lower contrasts result in higher initial direction bias and subsequent dynamics of motion integration is slower for lower contrasts. It proposes an open-loop version of a recurrent bayesian model where a recurrent bayesian network is cascaded with an oculomotor plant to generate smooth pursuit responses. The model responses qualitatively account for the different dynamics observed in smooth pursuit responses to tilted bar stimulus at different speeds and contrasts. The second study investigated the dynamic interactions between retinal and extra-retinal signals in dynamic motion integration for smooth pursuit by transiently blanking the target at different moments during open-loop and steady-state phases of pursuit. The results suggest that weights to retinal and extra-retinal signals are dynamic in nature and extra-retinal signals dominate retinal signals on target reappearance after a blank introduced during open-loop of pursuit when compared to a blank introduced during steady-state of pursuit. The previous version of the model is updated to a closed-loop version and extended to a hierarchical recurrent bayesian model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Perais, Arthur. „Increasing the performance of superscalar processors through value prediction“. Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S070/document.

Der volle Inhalt der Quelle
Annotation:
Bien que les processeurs actuels possèdent plus de 10 cœurs, de nombreux programmes restent purement séquentiels. Cela peut être dû à l'algorithme que le programme met en œuvre, au programme étant vieux et ayant été écrit durant l'ère des uni-processeurs, ou simplement à des contraintes temporelles, car écrire du code parallèle est notoirement long et difficile. De plus, même pour les programmes parallèles, la performance de la partie séquentielle de ces programmes devient rapidement le facteur limitant l'augmentation de la performance apportée par l'augmentation du nombre de cœurs disponibles, ce qui est exprimé par la loi d'Amdahl. Conséquemment, augmenter la performance séquentielle reste une approche valide même à l'ère des multi-cœurs.Malheureusement, la façon conventionnelle d'améliorer la performance (augmenter la taille de la fenêtre d'instructions) contribue à l'augmentation de la complexité et de la consommation du processeur. Dans ces travaux, nous revisitons une technique visant à améliorer la performance de façon orthogonale : La prédiction de valeurs. Au lieu d'augmenter les capacités du moteur d'exécution, la prédiction de valeurs améliore l'utilisation des ressources existantes en augmentant le parallélisme d'instructions disponible.En particulier, nous nous attaquons aux trois problèmes majeurs empêchant la prédiction de valeurs d'être mise en œuvre dans les processeurs modernes. Premièrement, nous proposons de déplacer la validation des prédictions depuis le moteur d'exécution vers l'étage de retirement des instructions. Deuxièmement, nous proposons un nouveau modèle d'exécution qui exécute certaines instructions dans l'ordre soit avant soit après le moteur d'exécution dans le désordre. Cela réduit la pression exercée sur ledit moteur et permet de réduire ses capacités. De cette manière, le nombre de ports requis sur le fichier de registre et la complexité générale diminuent. Troisièmement, nous présentons un mécanisme de prédiction imitant le mécanisme de récupération des instructions : La prédiction par blocs. Cela permet de prédire plusieurs instructions par cycle tout en effectuant une unique lecture dans le prédicteur. Ces trois propositions forment une mise en œuvre possible de la prédiction de valeurs qui est réaliste mais néanmoins performante
Although currently available general purpose microprocessors feature more than 10 cores, many programs remain mostly sequential. This can either be due to an inherent property of the algorithm used by the program, to the program being old and written during the uni-processor era, or simply to time to market constraints, as writing and validating parallel code is known to be hard. Moreover, even for parallel programs, the performance of the sequential part quickly becomes the limiting improvement factor as more cores are made available to the application, as expressed by Amdahl's Law. Consequently, increasing sequential performance remains a valid approach in the multi-core era. Unfortunately, conventional means to do so - increasing the out-of-order window size and issue width - are major contributors to the complexity and power consumption of the chip. In this thesis, we revisit a previously proposed technique that aimed to improve performance in an orthogonal fashion: Value Prediction (VP). Instead of increasing the execution engine aggressiveness, VP improves the utilization of existing resources by increasing the available Instruction Level Parallelism. In particular, we address the three main issues preventing VP from being implemented. First, we propose to remove validation and recovery from the execution engine, and do it in-order at Commit. Second, we propose a new execution model that executes some instructions in-order either before or after the out-of-order engine. This reduces pressure on said engine and allows to reduce its aggressiveness. As a result, port requirement on the Physical Register File and overall complexity decrease. Third, we propose a prediction scheme that mimics the instruction fetch scheme: Block Based Prediction. This allows predicting several instructions per cycle with a single read, hence a single port on the predictor array. This three propositions form a possible implementation of Value Prediction that is both realistic and efficient
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Kalaitzidis, Kleovoulos. „Advanced speculation to increase the performance of superscalar processors“. Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S007.

Der volle Inhalt der Quelle
Annotation:
Même à l’ère des multicœurs, il est primordial d’améliorer la performance en contexte monocœur, étant donné l’existence de pro- grammes qui exposent des parties séquentielles non négligeables. Les performances séquentielles se sont essentiellement améliorées avec le passage à l’échelle des structures de processeurs qui permettent le parallélisme d’instructions (ILP). Cependant, les chaînes de dépendances séquentielles li- mitent considérablement la performance. La prédiction de valeurs (VP) et la prédiction d’adresse des lectures mémoire (LAP) sont deux techniques en développement qui permettent de surmonter cet obstacle en permettant l’exécution d’instructions en spéculant sur les données. Cette thèse propose des mécanismes basés sur VP et LAP qui conduisent à des améliorations de performances sensiblement plus élevées. D’abord, VP est examiné au niveau de l’ISA, ce qui fait apparaître l’impact de certaines particularités de l’ISA sur les performances. Ensuite, un nouveau prédicteur binaire (VSEP), qui permet d’exploiter certains motifs de valeurs, qui bien qu’ils soient fréquemment rencontrés, ne sont pas capturés par les modèles précédents, est introduit. VSEP améliore le speedup obtenu de 19% et, grâce à sa structure, il atténue le coût de la prédiction de va- leurs supérieures à 64 bits. Adapter cette approche pour effectuer LAP permet de prédire les adresses de 48% des lectures mémoire. Finalement, une microarchitecture qui exploite soigneusement ce mécanisme de LAP peut exécuter 32% des lectures mémoire en avance
Even in the multicore era, making single cores faster is paramount to achieve high- performance computing, given the existence of programs that are either inherently sequential or expose non-negligible sequential parts. Sequential performance has been essentially improving with the scaling of the processor structures that enable instruction-level parallelism (ILP). However, as modern microarchitectures continue to extract more ILP by employing larger instruction windows, true data dependencies remain a major performance bottleneck. Value Prediction (VP) and Load-Address Prediction (LAP) are two developing techniques that allow to overcome this obstacle and harvest more ILP by enabling the execution of instructions in a data-wise speculative manner. This thesis proposes mechanisms that are related with VP and LAP and lead to effectively higher performance improvements. First, VP is examined in an ISA-aware manner, that discloses the impact of certain ISA particularities on the anticipated speedup. Second, a novel binary-based VP model is introduced, namely VSEP, that allows to exploit certain value patterns that although they are encountered frequently, they cannot be captured by previous works. VSEP improves the obtained speedup by 19% and also, by virtue of its structure, it mitigates the cost of predicting values wider than 64 bits. By adapting this approach to perform LAP allows to predict the memory addresses of 48% of the committed loads. Eventually, a microarchitecture that leverages carefully this LAP mechanism can execute 32% of the committed loads early
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Ruiz, Carmona Victor Manuel. „Commande prédictive adaptative des procédés chimiques“. Toulouse, INPT, 1990. http://www.theses.fr/1990INPT042G.

Der volle Inhalt der Quelle
Annotation:
Dans la premiere partie de cette these nous presentons un schema de commande adaptative indirecte qui consiste a combiner une loi de commande a caractere predictif avec un algorithme d'estimation de parametres robuste par rapport aux dynamiques negligees, aux perturbations externes et aux variations des parametres. L'algorithme de commande resulte de la minimisation d'un critere quadratique fonction des erreurs de poursuite d'entree et de sortie par rapport aux trajectoires de reference de l'entree et de la sortie. La deuxieme partie de cette these est consacree a la modelisation et a la mise en uvre de l'algorithme de commande adaptative precedemment cite a la commande d'un reacteur discontinu, d'une unite de cristallisation de sucre, d'une colonne d'absorption, d'un echangeur de chaleur et d'un condenseur. Les resultats obtenus mettent en evidence l'applicabilite des lois de commande etudiees a une classe tres large de procedes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Fonte, Christophe. „Une nouvelle régulation pour les processus industriels : la commande adaptative à multiples modèles de référence“. Lille 1, 1986. http://www.theses.fr/1986LIL10102.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte industriel précis de la régulation, les méthodes traditionnelles n'assurent pas un niveau de performances satisfaisant. C'est pourquoi nous proposons une nouvelle méthode de commande : la commande adaptative à multiples modèles de référence. Cette méthode permet d'obtenir des performances optima quelles que soient les conditions de fonctionnement du système et cela, grâce : 1) à sa capacité d'adaptation qui rend cette méthode applicable à beaucoup de procédés physiques ayant des comportements variables dans le temps. 2) à la qualité de la loi de commande qui confère à cette méthode les avantages des correcteurs précédemment utilisés sans en avoir les inconvénients. En effet, les pôles du système sont placés sans qu'il n'y ait à résoudre l'équation de Bezout. Les trajectoires de référence sur les sorties et les commandes sont suivies sans la limitation de l'inverse stable. De plus un critère quadratique généralise est minimisé sans que l'on soit tenu de procéder au choix toujours délicat des coefficients de pondération. Nous appliquons cette méthode de synthèse à trois procédés d'utilisation différents : 1/ pour réguler la température d'un four électrique, 2/ pour l'asservissement de position d'une antenne radar, 3/ pour le pilotage automatique d'un engin volant
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Jardillier, Rémy. „Evaluation de différentes variantes du modèle de Cox pour le pronostic de patients atteints de cancer à partir de données publiques de séquençage et cliniques“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALS008.

Der volle Inhalt der Quelle
Annotation:
Le cancer constitue la première cause de mortalité prématurée (décès avant 65 ans) en France depuis 2004. Pour un même organe, chaque cancer est unique, et le pronostic personnalisé est donc un aspect important de la prise en charge et du suivi des patients. La baisse des coûts du séquençage des ARN a permis de mesurer à large échelle les profils moléculaires de nombreux échantillons tumoraux. Ainsi, la base de données TCGA fournit les données RNA-seq de tumeurs, des données cliniques (âge, sexe, grade, stade, etc.), et les temps de suivi des patients associés sur plusieurs années (dont la survie du patient, la récidive éventuelle, etc.). De nouvelles découvertes sont donc rendues possibles en terme de biomarqueurs construits à partir de données transcriptomiques, avec des pronostics individualisés. Ces avancées requièrent le développement de méthodes d’analyse de données en grande dimension adaptées à la prise en compte à la fois des données de survie (censurées à droite), des caractéristiques cliniques, et des profils moléculaires des patients. Dans ce contexte, l’objet principal de la thèse consiste à comparer et adapter des méthodologies pour construire des scores de risques pronostiques de la survie ou de la récidive des patients atteints de cancer à partir de données de séquençage et cliniques.Le modèle de Cox (semi-paramétrique) est largement utilisé pour modéliser ces données de survie, et permet de les relier à des variables explicatives. Les données RNA-seq de TCGA contiennent plus de 20 000 gènes pour seulement quelques centaines de patients. Le nombre p de variables excède alors le nombre n de patients, et l'estimation des paramètres est soumis à la « malédiction de la dimension ». Les deux principales stratégies permettant de remédier à cela sont les méthodes de pénalisation et le pré-filtrage des gènes. Ainsi, le premier objectif de cette thèse est de comparer les méthodes de pénalisations classiques du modèle de Cox (i.e. ridge, lasso, elastic net, adaptive elastic net). Pour cela, nous utilisons des données réelles et simulées permettant de contrôler la quantité d’information contenue dans les données transcriptomiques. Ensuite, la deuxième problématique abordée concerne le pré-filtrage univarié des gènes avant l’utilisation d’un modèle de Cox multivarié. Nous proposons une méthodologie permettant d’augmenter la stabilité des gènes sélectionnés, et de choisir les seuils de filtrage en optimisant les prédictions. Enfin, bien que le coût du séquençage (RNA-seq) ait diminué drastiquement au cours de la dernière décennie, il reste trop élevé pour une utilisation routinière en pratique. Dans une dernière partie, nous montrons que la profondeur de séquençage des miARN peut être réduite sans atténuer la qualité des prédictions pour certains cancers de TCGA, mais pas pour d’autres
Cancer has been the leading cause of premature mortality (death before the age of 65) in France since 2004. For the same organ, each cancer is unique, and personalized prognosis is therefore an important aspect of patient management and follow-up. The decrease in sequencing costs over the last decade have made it possible to measure the molecular profiles of many tumors on a large scale. Thus, the TCGA database provides RNA-seq data of tumors, clinical data (age, sex, grade, stage, etc.), and follow-up times of associated patients over several years (including patient survival, possible recurrence, etc.). New discoveries are thus made possible in terms of biomarkers built from transcriptomic data, with individualized prognoses. These advances require the development of large-scale data analysis methods adapted to take into account both survival data (right-censored), clinical characteristics, and molecular profiles of patients. In this context, the main goal of the thesis is to compare and adapt methodologies to construct prognostic risk scores for survival or recurrence of patients with cancer from sequencing and clinical data.The Cox model (semi-parametric) is widely used to model these survival data, and allows linking them to explanatory variables. The RNA-seq data from TCGA contain more than 20,000 genes for only a few hundred patients. The number p of variables then exceeds the number n of patients, and parameters estimation is subject to the “curse of dimensionality”. The two main strategies to overcome this issue are penalty methods and gene pre-filtering. Thus, the first objective of this thesis is to compare the classical penalization methods of Cox's model (i.e. ridge, lasso, elastic net, adaptive elastic net). To this end, we use real and simulated data to control the amount of information contained in the transcriptomic data. Then, the second issue addressed concerns the univariate pre-filtering of genes before using a multivariate Cox model. We propose a methodology to increase the stability of the genes selected, and to choose the filtering thresholds by optimizing the predictions. Finally, although the cost of sequencing (RNA-seq) has decreased drastically over the last decade, it remains too high for routine use in practice. In a final section, we show that the sequencing depth of miRNAs can be reduced without degrading the quality of predictions for some TCGA cancers, but not for others
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Vignot, Stéphane. „Analyse différentielle Tumeur Primitive / Métastase : impact sur la détermination des facteurs prédictifs de réponse et sur la compréhension des mécanismes du processus métastatique“. Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T068.

Der volle Inhalt der Quelle
Annotation:
La variabilité spatiale et temporelle des biomarqueurs entre tumeur primitive et métastase est une question clé à une époque où une meilleure individualisation des thérapeutiques est vivement attendue par les cliniciens, les chercheurs et les patients. Le projet de la thèse est de préciser les profils moléculaires différentiels entre tumeur primitive et métastases. Des échantillons conservés congélation issus de deux cohortes de patients ont été considérés : cancer bronchique non à petites cellules (15 patients) et cancer colorectal (13 patients, dont 11 patients avec contrôle de tissus sains). Ces prélèvements ont été analysés par séquençage haut débit et en expression génique afin d'étudier l'hétérogénéité tumorale lors de la progression métastatique et ainsi que les voies potentiellement impliquées dans le processus métastatique.Une forte conservation des profils génomiques est observée à la première progression métastatique pour les gènes récurrents des cancers bronchiques non à petites cellules et des cancers colorectaux. Si les études d'expression génique ne permettent pas de mettre en évidence de profil spécifique de la métastase, elles apportent des éléments utiles sur la conservation de certaines voies importantes dans les processus oncogéniques, identifient des gènes d'intérêt particulier dans l'étude de la progression métastatique et soulignent l'impact de l'effet tissu pour les analyses d'expression
The question of spatial and temporal variability of biomarkers in solid tumors is a key issue in an era where personalized therapy is strongly advocated by clinicians, researchers and patients. The purpose of the work is to compare molecular profiles of primary tumor and matched metastasis in order to precise tumor heterogeneity during metastatic progression and to investigate pathways potentially involved in the metastatic process.Frozen samples from two cohorts of patients were considered: non-small cell lung cancer (15 patients) and colorectal cancer (13 patients, 11 patients with healthy control tissues). These samples were analyzed by high-throughput sequencing and gene expression. Highly conserved genomic profiles were observed in the first metastatic progression for known recurrent genes in non-small cell lung cancer and colorectal cancer. If gene expression studies do not highlight specific profile of metastasis, they provide useful data on the conservation of some important oncogenic pathways; identify genes of interest in the study of metastatic progression and highlight the putative impact of the effect of healthy tissue for expression analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Koubaa, Mohamed Ali. „Contribution à la commande prédictive : mise en oeuvre pour le pilotage d'un autoclave de teinture“. Lille 1, 1997. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1997/50376-1997-25.pdf.

Der volle Inhalt der Quelle
Annotation:
La modelisation d'un procede thermique (autoclave de teinture), mettant en jeu de nombreux phenomenes thermomecaniques, conduit a une representation generalement non lineaire complexe difficilement exploitable en vue de la commande. Cependant, la commande predictive a multiples modeles de references permet d'utiliser ce type de representation dans de nombreuses applications industrielles. La propriete essentielle de cette approche a la commande predictive est d'etre capable de controler des processus a modele lineaire et non lineaire, tout en conservant sa robustesse de stabilite deja acquise pour les systemes lineaires. Les elements qui ont permis la synthese d'une telle commande, se resument a: l'utilisation du principe de surechantillonnage. Un ajustement automatique du facteur de ponderation de la commande au cours du fonctionnement du procede. Une mise au point de la methode permettant le choix de la dynamique du systeme global de controle assurant une robustesse de stabilite optimale de la commande. L'utilisation de la programmation non lineaire, afin de minimiser le critere quadratique dans le cas des systemes a modele non lineaire. Nous avons developpe aussi une commande pratique a haut gain. Ce type de commande a l'avantage de controler un systeme a modele mal identifie. La commande a haut gain et la commande predictive a parametre de ponderation auto-ajustable sont implantees sur l'autoclave de teinture afin de le controler en temps reel
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Haquin, Thierry. „Séquences de branchements : prédiction de branchements et optimisation du chargement des instructions“. Toulouse 3, 2003. http://www.theses.fr/2003TOU30160.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Hassad, Hassane. „Contribution à l'analyse de la stabilité de la commande prédictive généralisée : application à un processus thermique“. Nancy 1, 1993. http://www.theses.fr/1993NAN10053.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire traite le problème de la stabilité de la commande prédictive généralisée (GPC). L'élaboration de cette stratégie est donnée au premier chapitre. Le deuxième chapitre est consacré au rappel des résultats des auteurs qui ont traité ce problème ainsi qu'à la reformulation du système en boucle fermée obtenu par l'application de cette stratégie, sous plusieurs aspects. Dans le troisième chapitre, nous avons donné une condition suffisante, pour choisir le coefficient de pondération de la commande, qui permet de placer le polynôme caractéristique dans une hypersphère de stabilité. Ces résultats concernent un choix de l'horizon de commande unitaire et sont limites à des systèmes stables ou proches de la stabilité. Des algorithmes permettant le choix de tous les paramètres de synthèse, assurant la stabilité asymptotique du système en boucle fermée, ont été proposés dans le quatrième chapitre. Contrairement aux résultats du chapitre précédent, ces derniers concernent tous les systèmes. Ils sont basés uniquement sur la réponse impulsionnelle du système en boucle ouverte, ils peuvent être appliqués dans le cas adaptatif. Le dernier chapitre est consacré à la mise en application de ces résultats à un processus thermique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie