To see the other types of publications on this topic, follow the link: Prédiction de la charge.

Dissertations / Theses on the topic 'Prédiction de la charge'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Prédiction de la charge.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Delille, Florent. "Recherche d'une prédiction de fragmentation charge par charge pour les tirs à ciel ouvert." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00798090.

Full text
Abstract:
Pour contribuer à la compréhension des processus d'arrachement et de fragmentation de la roche par l'explosif en ciel ouvert, le travail de recherche présenté dans ce mémoire vise à affiner les techniques empiriques de prédiction de fragmentation existantes. Un programme expérimental conséquent réalisé en échelle réelle sur site minier apporte des données ainsi que de nouveaux éléments par rapport à l'existant dans la littérature. En particulier, une comparaison entre résultats de tirs de charge unique et résultats de tirs à plusieurs charges est faite. Dans le contexte roche/explosif du site test, les résultats démontrent que le bénéfice industriel d'une prédiction charge par charge est limité. Une approche numérique a été mise en œuvre en parallèle du travail expérimental ; elle met à contribution un modèle rhéologique d'endommagement développé spécifiquement pour l'étude de laf ragmentation par l'explosif (Rouabhi, 2004). Des calculs 2D avec réduction d'échelle ont été réalisés ; l'utilisation d'un tel modèle d'endommagement s'avère indispensable, et la nécessité de coupler dans le futur les effets des ondes de choc et des gaz d'explosion dans la modélisation est soulignée. On explique par ailleurs de manière originale les résultats d'une étude expérimentale en laboratoire (Miklautsch et al., 2002). En fin de mémoire, plusieurs méthodologies de prédiction charge par charge aisément reproductibles sont testées et ajustées aux résultats du programme expérimental. On finit par montrer que la meilleure méthode offre même davantage de précision lorsqu'elle est appliquée avec les paramètres moyens des tirs et non charge par charge.
APA, Harvard, Vancouver, ISO, and other styles
2

Delille, Florent. "Recherche d'une prédiction de fragmentation charge par charge pour les tirs à ciel ouvert." Electronic Thesis or Diss., Paris, ENMP, 2012. http://www.theses.fr/2012ENMP0046.

Full text
Abstract:
Pour contribuer à la compréhension des processus d'arrachement et de fragmentation de la roche par l'explosif en ciel ouvert, le travail de recherche présenté dans ce mémoire vise à affiner les techniques empiriques de prédiction de fragmentation existantes. Un programme expérimental conséquent réalisé en échelle réelle sur site minier apporte des données ainsi que de nouveaux éléments par rapport à l'existant dans la littérature. En particulier, une comparaison entre résultats de tirs de charge unique et résultats de tirs à plusieurs charges est faite. Dans le contexte roche/explosif du site test, les résultats démontrent que le bénéfice industriel d'une prédiction charge par charge est limité. Une approche numérique a été mise en œuvre en parallèle du travail expérimental ; elle met à contribution un modèle rhéologique d'endommagement développé spécifiquement pour l'étude de laf ragmentation par l'explosif (Rouabhi, 2004). Des calculs 2D avec réduction d'échelle ont été réalisés ; l'utilisation d'un tel modèle d'endommagement s'avère indispensable, et la nécessité de coupler dans le futur les effets des ondes de choc et des gaz d'explosion dans la modélisation est soulignée. On explique par ailleurs de manière originale les résultats d'une étude expérimentale en laboratoire (Miklautsch et al., 2002). En fin de mémoire, plusieurs méthodologies de prédiction charge par charge aisément reproductibles sont testées et ajustées aux résultats du programme expérimental. On finit par montrer que la meilleure méthode offre même davantage de précision lorsqu'elle est appliquée avec les paramètres moyens des tirs et non charge par charge
To contribute in the understanding of rock breakage and fragmentation processes in open pit blasting, the herein presented research aims at refining existing empirical fragmentation prediction techniques. A comprehensive full-scale experimental program has been conducted in an open pit mine and analyzed. The experiments yield data as well as enlightenments with respect to existing literature on blasting experiments. In particular, single-hole and multiple-hole blasting results are compared. In the test site's rock/explosives context, results demonstrate that industrial benefits from a hole-by-hole prediction are limited. A numerical approach has been developed in parallel to experimental work; it takes advantage of adamage behaviour law specifically designed for fragmentation by explosives (Rouabhi, 2004). 2D calculations with scale reduction are made; the use of such a behaviour law is shown to be essential, and it is outlined that coupling shock wave & explosive gases effects should be sought in future modelling work. Moreover, results observed in a laboratory scale experimental study (Miklautsch, 2002) are explained in an original way. At the end of the thesis, several hole-by-hole prediction methods – which can easily be reproduced –are tested and fitted with results from the full-scale blasting experiments. In the end, it is shown that the most accurate method obtained, when used with mean blast pattern parameters instead of hole-by-hole information, actually provides an even more accurate prediction
APA, Harvard, Vancouver, ISO, and other styles
3

Ragot, Sébastien. "Matrices densité : modélisation des densités de charge et d'impulsion : prédiction des propriétés solides." Châtenay-Malabry, Ecole centrale de Paris, 2001. http://www.theses.fr/2001ECAP0709.

Full text
Abstract:
Les grandeurs liées à la dynamique des électrons, par exemple l'énergie cinétique, sont particulièrement difficiles à évaluer à partir de la seule densité de charge, accessible par diffraction X. Elles sont en revanche directement liées à la densité d'impulsion qui est, elle, accessible par diffusion Compton. En cela, la diffusion Compton peut et doit fournir un complément efficace aux problèmes électroniques dans les molécules ou les solides. Pour autant, les études combinées dans les espaces R et P restent relativement rares. La modélisation de l'information commune a ces deux espaces repose sur la formulation de la matrice densité réduite à un électron (MD1). Nous explorons les possibilités offertes par une méthode dite de partition de clusters pour la formulation de la MD1 relative à un ion ou une molécule dans un environnement cristallin. Au niveau Hartree-Fock, nous montrons que cette méthode converge vers la solution exacte. Elle permet par ailleurs d'estimer des effets de corrélation électronique dans les deux espaces R et P et, plus généralement, de rendre compte des interactions d'un ion ou d'une molécule plonge(e) dans un environnement solide. L'application au cas de la glace ih permet d'obtenir des informations relatives aux interactions des molécules d'eau, offrant par la une interprétation précise d'une récente expérience de diffusion Compton. L'influence des défauts dans la glace est abordée. L'application de cette méthode au cas de la glace ih permet d'obtenir des informations relatives aux interactions des molécules d'eau. Les résultats théoriques permettent une interprétation précise d'une récente expérience de diffusion Compton, voire, d'envisager l'influence des défauts.
APA, Harvard, Vancouver, ISO, and other styles
4

Fournier, Edouard. "Méthodes d'apprentissage statistique pour la prédiction de charges et de contraintes aéronautiques." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30123.

Full text
Abstract:
Cette thèse s'intéresse à l'apprentissage et à la représentation de données de charges et contraintes aéronautiques. Nous réalisons dans un premier temps une étude préliminaire pour la prédiction des courbes de charges aéronautiques. Nous comparons des méthodes de régression à base d'arbres et quantifions l'influence de techniques de réduction de dimension sur les performances en régression dans un cadre d'extrapolation. Dans un second temps, nous développons un modèle de déformation agissant simultanément sur les entrées et sorties des courbes. Nous étudions les propriétés asymptotiques des estimateurs des paramètres de déformation. Ce modèle de déformation est associé au processus de modélisation et prédiction des charges aéronautiques. Dans un troisième temps, nous donnons une méthodes simple et efficace de prédiction de charges critiques
This thesis focuses on Machine Learning and information extraction for aeronautical loads and stress data. In the first time, we carry out a study for the prediction of aeronautical loads curves. We compare regression trees based models and quantify the influence of dimension reduction techniques on regression performances in an extrapolation context. In the second time, we develop a deformation model acting simultaneously on the input and the output space of the curves. We study the asymptotic properties of the estimators of the deformation parameters. This deformation model is associated to the modeling and predicting process of aeronautical loads. Finally, we give a simple and efficient method for predicting critical loads
APA, Harvard, Vancouver, ISO, and other styles
5

Coutant, Charles. "Optimisation de la prise en charge des cancers du sein : développement de prédicteurs clinicopathologiques et génomiques." Paris 6, 2009. http://www.theses.fr/2009PA066582.

Full text
Abstract:
L’utilisation de prédicteurs - clinicopathologiques ou génomiques – améliore notre connaissance des cancers du sein et nous offre la possibilité de proposer aux patientes une information pertinente et objective mais surtout personnalisée. Dans ce travail, nous avons i) créé et validé un prédicteur clinicopathologique de non envahissement des ganglions non sentinelles en cas de métastase du ganglion sentinelle, ii) mis au point et proposé une méthodologie robuste de validation des modèles prédictifs, iii) comparé différentes méthodes permettant de développer des prédicteurs clinicopathologiques, iv) développé et comparé des prédicteurs clinicopathologiques et génomiques de la réponse à la chimiothérapie néoadjuvante, v) créé de deux signatures génomiques de la mutation de p53 sécifiques des tumeurs ER-positives et -négatives ; et un prédicteur spécifique du risque de métastases cérébrales. Ces prédicteurs permettent d’optimiser la prise en charge des malades en identifiant des sous groupes spécifiques de patientes. Dans l’idéal, ces prédicteurs permettraient de proposer des traitements « à la carte ».
APA, Harvard, Vancouver, ISO, and other styles
6

Dossou, Dossouvi. "Fatigue thermique d'un polycarbonate : modèle de prédiction de durée de vie d'éprouvettes entaillées." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL135N.

Full text
Abstract:
Le polycarbonate est de plus en plus utilisé en ingénierie à cause de ses bonnes propriétés mécaniques. Il n'existe pas de procédure de dimensionnement bien établie pour tenir compte de la présence d'une concentration locale de déformation ou de contrainte dans une structure soumise à un chargement cyclique. Nous proposons un modèle de prévision de la durée de vie d'éprouvettes entaillées d'un polycarbonate en fatigue thermique. Le banc d'essai de fatigue thermique conçu est constitué d'un bâti assurant le maintien de l'éprouvette, d'un système de chauffage et de refroidissement, d'une unité de mesure et de régulation de la température, d'un système extensometrique ainsi que d'une unité informatique permettant la réalisation des cycles thermiques et l'asservissement précis des équipements. Des essais en traction isotherme sont réalisés pour déterminer les lois de comportement de notre polycarbonate dans l'intervalle de température des cycles thermiques. Les essais de cyclage thermique sur des éprouvettes lisses permettent de déterminer les lois de fatigue du matériau en terme d'énergie de déformation dissipée. L’analyse par la méthode des éléments finis permet de déterminer les coefficients de concentration de contrainte et la densité d'énergie de déformation dissipée en fond d'entaille. Notre modèle est obtenu en combinant la loi de fatigue du matériau et la loi d'évolution de la densité d'énergie de déformation dissipée en fond d'entaille en fonction du coefficient de concentration de contrainte. Ce modèle simple peut être utilisé pour déterminer la résistance à la fatigue d'autres matériaux et sous différents modes de sollicitation
APA, Harvard, Vancouver, ISO, and other styles
7

Dray, Bensahkoun Delphine. "Prédiction des propriétés thermo-élastiques d'un composite injecté et chargé de fibres courtes." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00001776.

Full text
Abstract:
La réalisation des moules pour l'injection des thermoplastiques demande un gros investissement financier; en conséquence, les industriels souhaitent parvenir à prédire correctement la géométrie finale des pièces injectées. Pour cela, un calcul rhéologique couplé à un calcul thermo-mécanique par éléments finis dans le solide doit être mené et requiert les propriétés du matériau. Aujourd'hui, les propriétés mécaniques des matériaux utilisées dans les codes de calcul ne sont généralement ni thermo-dépendantes, ni directement dépendantes de l'orientation locale des fibres. L'objectif de cette étude est de parvenir à prédire les propriétés élastiques et les coefficients de dilatation de composites injectés et chargés de fibres courtes, en ayant recours à des techniques d'homogénéisation. L'originalité du travail réside dans le fait d'estimer ces propriétés sur une large gamme de température en fonction de l'orientation locale des fibres. Une 1ère partie présente les techniques de mesure de l'état d'orientation des fibres: dans le cas particulier de l'injection où la plupart des fibres sont contenues dans un plan, nous avons mis au point une nouvelle méthode rapide et précise afin de déterminer l'orientation spatiale des fibres. Elle consiste à analyser l'image, prise au microscope électronique à balayage, d'un seul plan de coupe incliné par rapport à la direction d'injection. Dans une 2ème partie, les propriétés thermo-élastiques des composites sont obtenues par le modèle de Mori-Tanaka. Pour tenir compte de l'orientation, plusieurs méthodologies sont évaluées. Finalement, nous proposons d'utiliser une fonction capable de décrire la forme de la distribution d'orientation et dont les paramètres sont identifiés à partir du tenseur d'orientation d'ordre 2. Les prédictions obtenues sont cohérentes avec les mesures de modules d'Young et de coefficients de dilatation.
APA, Harvard, Vancouver, ISO, and other styles
8

Fortier, Alexandre. "Utilisation de modèles analytiques et numériques pour la prédiction du comportement sous charge statique de dispositifs de retenue de ponts routiers de niveau PL-2 en béton armé de barre d'armature de polymères renforcés de fibres de verre." Mémoire, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/5308.

Full text
Abstract:
Ce mémoire présente les résultats de calculs analytiques de prédiction du comportement de dispositifs de retenue de niveau PL-2 armé d'armature en polymères renforcés de fibres de verre (PRFV) soumis aux essais de chargement quasi statique horizontal. L'un des modèles analytiques à l'étude est le calcul de la charge ultime que peut reprendre un dispositif de retenue en fonction des dimensions de la fissure au niveau de la connexion. Le deuxième modèle analytique à l'étude est le calcul de prédiction de la relation charge-déflexion en tête de muret. La collaboration entre le Ministère des Transports du Québec (MTQ), le Ministère des Transports de l'Alberta et l'Université de Sherbrooke a permis d'effectuer des essais quasi statiques sur plusieurs configurations durant les dernières années. Les configurations de dispositifs provenant du MTQ sont des barrières de type 210 et 311 dont les murets et les dalles sont entièrement armés de barres en PRFV. Les configurations des dispositifs de l'Alberta sont quant à eux des dispositifs de type S-1642 et S-1650 dont les murets sont armés de barres en PRFV et les dalles sont armées de barres d'acier enduit d'époxy. Grâce à cette banque de données, il est possible d'effectuer l'étude des modèles sur différentes configurations et ainsi déterminer certaines de leurs limites. De plus, une modélisation par éléments finis de la configuration de dispositif de retenue de type 311 (PL-2) a été effectuée. Le dispositif a été modélisé en trois dimensions avec le logiciel ADINA. De ce modèle, une comparaison avec les données expérimentales a été effectuée afin de le valider. De plus, une étude paramétrique a été effectuée sur l'influence des résistances du béton de la dalle et du muret et du module d'élasticité des barres en polymères renforcés de fibres (PRF). En effet, des bétons de 35 MPa et 50 MPa ont été utilisés afin de représenter trois cas de combinaison de résistance en compression des bétons. Finalement, trois grades de modules élastiques ont été utilisés sur le dispositif ayant un béton de 35 MPa au niveau de la dalle et un béton de 50 MPa au niveau du muret (combinaison la plus courante) afin d'étudier l'effet du module élastique des barres.
APA, Harvard, Vancouver, ISO, and other styles
9

Pigenet, Nazim. "Mise en place des outils de suivi de prédiction de la demande électrique à l'échelle d'un territoire, application au département du Lots." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/617/.

Full text
Abstract:
Pour repousser la construction de nouvelles lignes à haute tension, le département du Lot a mis en place un programme départemental de maîtrise de la demande d'électricité. L'efficacité d'un tel programme se mesure à son impact sur la pointe d'appel de puissance et son évaluation nécessite une modélisation de la courbe de charge départementale. Des modèles existent déjà, mais reposent sur une connaissance approfondie des parcs d'équipement et des comportements de leurs usagers. À l'échelle du Lot, ces informations sont rares, ce qui rend ces modèles peu adaptés. Le modèle proposé ici a donc été construit autour d'un nombre réduit de déterminants, issus d'une analyse approfondie de la demande électrique lotoise et de ses similitudes avec la demande électrique nationale. Les applications de l'outil sont ensuite testées sur des scénarios d'évolution des déterminants lotois.
In order to delay the construction of high-voltage lines, the French district of the Lot (one of the 98 French "departments") has set up a local programme of demand side management. The effectiveness of such a programme can be measured by its impact on the pic power demand and its assessment requires a modelising of the district's power load. Some such models are available already, but they are linked to a detailed knowledge of the existing equipment and consumer habits. In the Lot, this type of information is scarce, which renders the existing models inappropriate. The model proposed here was constructed using limited criteria defined via a thorough analysis of the Lot's electrical consumption and its similarities with national consumption. The applications of this model are then tested according to the various scenarios concerning the evolution of these criteria. .
APA, Harvard, Vancouver, ISO, and other styles
10

Chouman, Mehdi. "Plasticité cyclique et phénomène de rochet : amélioration de la prédiction de l’ovalisation des tubes en acier durant le cintrage cyclique par modélisation de la distorsion de la surface de charge." Paris 13, 2010. http://www.theses.fr/2010PA132015.

Full text
Abstract:
L'installation en continu d'un pipeline en «offshore» nécessite son transport sous forme de bobines. Les cycles d'enroulement-déroulement de ces tubes en acier induit une accumulation de l'ovalisation résiduelle qui diminue leur résistance au flambement. Cette accumulation étant un phénomène de rochet, deux pistes ont été explorées afin d'améliorer sa prédiction : la loi d'écrouissage cinématique et le critère de plasticité. La capacité à prédire l'ovalisation a été évaluée pour plusieurs modèles d'écrouissage couplés au critère de von Mises. Ces modèles surestiment largement l'ovalisation des tubes. L'influence du critère de plasticité a été évaluée en utilisant le critère non quadratique de Bron et Besson. L'implémentation de ce modèle dans le code éléments finis Abaqus a permis de montrer une grande influence de la surface de charge sur l'ovalisation. Ce critère améliore la prédiction de l'ovalisation mais insuffisamment. Ceci étant dû principalement à la forme invariante de la surface de charge. Pour cela, on a proposé un modèle élastoplastique phénoménologique décrivant une distorsion de la surface de charge en se basant sur le critère de Bron et Besson : la distorsion est modélisée en variant le paramètre le plus influent sur l'ovalisation suivant des lois d'évolution en fonction du trajet de déformation. L'identification des paramètres du modèle pour les aciers X60 et St52 montre sa grande capacité à prédire l'évolution de l'ovalisation du tube, ainsi que la déformation mesurées lors d'un essai de cintrage cyclique
The reel-lay installation process of offshore pipelines requires their transport in the form of reels. The cyclic reeling-straightening of these pipes induces an accumulation of ovalisation which decreases their resistance to collapse. This accumulation being a phenomenon of ratcheting, two possibilities were explored to improve its prediction: the law of kinematic hardening and the yield criterion. The capacity to predict the ovalisation was evaluated for several models of kinematic hardening coupled with the von Mises yield criterion. These models largely overpredict the ovalisation of the tubes. The influence of the yield criterion was evaluated by using the non quadratic yield function of Bron and Besson which has a set of « shape parameters ». The implementation of this model in the code Abaqus had highlighted a larger influence of the yield surface on the ovalisation. The use of this criterion improves the prediction of the ovalisation but insufficiently. This is due mainly to the invariant shape of the yield surface. Thus, we have proposed a phenomenological elastoplastic model describing distortion of yield surface based on Bron and Besson criterion: the distortion is modelled by varying the most influential parameter on the ovality according evolution laws depending on the strain path. The identification of the parameters of this model for the X60 and St52 steels shows its great capacity to predict the evolution of the ovality of the tube, as well as the strain (ratcheting) measured during the cyclic reeling test
APA, Harvard, Vancouver, ISO, and other styles
11

Rizzetto, Simon. "Prédiction de la sensibilité biogéochimique et écologique des écosystèmes forestiers français aux dépôts atmosphériques azotés dans un contexte de changement global." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19558/1/Rizzetto.pdf.

Full text
Abstract:
Depuis des décennies, les dépôts atmosphériques azotés sont connus pour agir de manière sévère sur le fonctionnement des écosystèmes forestiers. Ils influent en effet la biogéochimie du sol, l’équilibre des éléments nutritifs et, en conséquence, la croissance des espèces végétales, la biodiversité végétale de sous-étage et plus globalement la santé des forêts. Dans le cadre de la convention internationale de Genève visant à limiter la pollution atmosphérique transfrontalière à longue distance, le concept de « Charges Critiques », défini à la fin des années 1980, a été retenu comme outil permettant d’évaluer la sensibilité d’un écosystème aux contaminants. Il permet d’estimer la quantité maximale de polluants atmosphériques acceptable par l’écosystème avant apparition de conséquences néfastes à son fonctionnement. De plus, en raison de l’impact des changements globaux sur les processus biogéochimiques régissant le fonctionnement des écosystèmes, l’influence des dépôts atmosphériques et du changement climatique doit être considéré de manière simultanée pour évaluer l’évolution de l’état des écosystèmes au cours du temps. Dès lors l’enjeu majeur est de pouvoir prédire l’effet combiné de ces facteurs sur les écosystèmes forestiers français. C’est l’objectif de ce travail de thèse. Des modèles dynamiques couplés biogéochimiques – écologiques, tels que les modèles ForSAFE-VEG ou PROPS, ou écologiques (basés sur la base de données EcoPlant) ont été développés ou adaptés à ces fins, et appliqués à différentes échelles locale, régionale et nationale, selon différents scénarios de dépôts et climatiques. L’application et la calibration du modèle couplé ForSAFE-VEG sur des placettes forestières permanentes du réseau RENECOFOR ont permis de prédire l’évolution de la composition biogéochimique de la solution du sol et en cascade de la composition floristique de trois sites, sous différents scénarios de dépôts atmosphériques et de changement climatique. Les principales évolutions des sites sont liées à leurs caractéristiques stationnelles. Si le changement climatique joue un rôle prédominant sur la réponse des espèces, les écosystèmes oligotrophes restent sensibles aux dépôts de N. A court terme, l’effet combiné des dépôts et du changement climatique sur le long terme est modulé par les effets de la gestion forestière. L’extrapolation du modèle couplé à plus large échelle nécessite une continuité dans la disponibilité des données d’entrée et de calibration de la réponse des espèces. Les données et scénarios de changement climatiques ont été complétés et actualisés à l’aide du modèle SAFRAN et des nouveaux scénarios RCP régionalisés. La calibration de la réponse des espèces végétales à l’échelle de la France a été réalisée à partir des mesures de la base de données phytoécologiques EcoPlant, par le développement de modèles de distribution d’espèces (SDM), en intégrant simultanément des variables climatiques, édaphiques, d’énergie et de nutrition. Le couplage entre le modèle ForSAFE et les SDM assure une modélisation robuste à l’échelle du territoire de la réponse des écosystèmes forestiers dans le temps, calibrée pour les conditions pédoclimatiques françaises. La modélisation des charges critiques d’acidité, d’eutrophisation et de biodiversité sur l’ensemble des sites RENECOFOR et la totalité des écosystèmes forestiers français montre des sensibilités variées aux dépôts de soufre et d’azote en fonction des écosystèmes, avec parmi les plus sensibles les Landes, la Sologne et le Massif Central. Des indices de qualité des habitats (HSi) ont été calculés à l’échelle de tous les écosystèmes par le modèle PROPS et les SDM. La sélection des espèces représentatives reste primordiale car elle conditionne la valeur finale de HSi. Ce paramètre est l’un des plus sensibles à prendre en compte dans la modélisation. Il est à mettre en relation avec les objectifs de protection des écosystèmes voulus par les gestionnaires.
APA, Harvard, Vancouver, ISO, and other styles
12

Basu, Kaustav. "Techniques avancées de classification pour l'identification et la prédiction non intrusive de l'état des charges dans le bâtiment." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT089/document.

Full text
Abstract:
Nous abordons dans ces travaux l’identification non intrusive des charges des bâtiments résidentiels ainsi que la prédiction de leur état futur. L'originalité de ces travaux réside dans la méthode utilisée pour obtenir les résultats voulus, à savoir l'analyse statistique des données(algorithmes de classification). Celle-ci se base sur des hypothèses réalistes et restrictives sans pour autant avoir de limitation sur les modèles comportementaux des charges (variations de charges ou modèles) ni besoin de la connaissance des changements d'état des charges. Ainsi, nous sommes en mesure d’identifier et/ou de prédire l'état des charges consommatrices d'énergie (et potentiellement contrôlables) en se basant uniquement sur une phase d'entrainement réduite et des mesures de puissance active agrégée sur un pas de mesure de dix minutes, préservant donc la vie privée des habitants.Dans cette communication, après avoir décrit la méthodologie développée pour classifier les charges et leurs états, ainsi que les connaissances métier fournies aux algorithmes, nous comparons les résultats d’identification pour cinq algorithmes tirés de l'état de l'art et les utilisons comme support d'application à la prédiction. Les algorithmes utilisés se différencient par leur capacité à traiter des problèmes plus ou moins complexe (notamment la prise en compte de relations entre les charges) et se ne révèlent pas tous appropriés à tout type de charge dans le bâtiment résidentiel
Smart metering is one of the fundamental units of a smart grid, as many further applicationsdepend on the availability of fine-grained information of energy consumption and production.Demand response techniques can be substantially improved by processing smart meter data to extractrelevant knowledge of appliances within a residence. The thesis aims at finding generic solutions for thenon-intrusive load monitoring and future usage prediction of residential loads at a low sampling rate.Load monitoring refers to the dis-aggregation of individual loads from the total consumption at thesmart meter. Future usage prediction of appliances are important from the energy management point ofview. In this work, state of the art multi-label temporal classification techniques are implemented usingnovel set of features. Moreover, multi-label classifiers are able to take inter-appliance correlation intoaccount. The methods are validated using a dataset of residential loads in 100 houses monitored over aduration of 1-year
APA, Harvard, Vancouver, ISO, and other styles
13

Briquet, Laurent. "Explorations psychométriques et psychoprojectives chez les auteurs d'infractions à caractère sexuel en psychologie légale : contribution sémiologique à l'identification de nouvelles composantes intrapsychiques et de nouvelles prises en charge psychothérapiques." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCC006.

Full text
Abstract:
La prise en charge des auteurs d’infractions à caractère sexuel bouscule les professionnels du soin dans les limites de leurs compétences thérapeutiques et pose par voie de conséquence la récurrente question des chances de réinsertion sociale de ces sujets dans la société.La méconnaissance du fonctionnement intrapsychique de ces patients, l’absence de formation des professionnels à la sexualité normale et pathologique, l’effet de renforcement sur les pulsions partielles produit par internet, ou encore la spécificité du cadre thérapeutique sous contrainte sont autant d’éléments qui nous placent définitivement hors d’un champ habituel de prise en charge en santé mentale. En tentant de prendre en compte l’ensemble de ces spécificités et en explorant de façon standardisée les dimensions psychosociales, psychométriques et psycho-projectives de ces auteurs d’infraction à caractère sexuel, cette recherche vise à mettre en lumière d’une part les variables intrapsychiques qui permettraient d’améliorer les échelles d’évaluation de la dangerosité sexuelle et d’autre part les caractéristiques psychothérapiques susceptibles de répondre aux dysfonctionnements psychiques spécifiques de cette population
The management of sexual offenders disrupts care professionals within the limits of their therapeutic skills and consequently raises the recurring question of the chances of reintegration in society.The lack of understanding of the intrapsychic functioning of these patients, the lack of training of professionals in normal and pathological sexuality, the reinforcing effect on partial drives produced by the internet, or the specificity of the court-ordered therapy’s framework are all elements which definitely puts us out of the usual mental health care field.By attempting to take into account all these specificities and by exploring in a standardized way the psychosocial, psychometric and psycho-projective dimensions of these sex offenders, this research attempts to highlight on the one hand the intrapsychic variables that would improve scales of sexual dangerosity and secondly the psychotherapeutic characteristics likely to respond to the specific psychological dysfunctions of this population
APA, Harvard, Vancouver, ISO, and other styles
14

Jouan, Alexandre Alain. "Influence du vieillissement en atmosphère confinée sur la prédiction de la durée de vie des joints adhésifs." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX002.

Full text
Abstract:
L’industrie pétrolière s’intéresse aujourd’hui à la possibilité de remplacer certaines brasures par des joints adhésifs rendus conducteurs par leur fort taux de charges conductrices dans les outils électroniques. Ces outils évoluent aujourd’hui à des hauts niveaux de température et de pression pendant leur vie en service. L’utilisation de joints adhésifs pose donc automatiquement la question de leur fiabilité à long terme. L’étude de leur tenue en fatigue, et de l’influence du vieillissement sur cette tenue en fatigue devient nécessaire pour le déploiement final de ces joints. Cette thèse se propose de répondre à une double question : la prédiction de la durée de vie de deux colles commerciales dans les outils électroniques et l’influence du vieillissement de ces colles sur cette prédiction. Deux vieillissements différents ont été mis en œuvre : un vieillissement à l’air libre et un vieillissement inerte (sous argon) confiné.Dans un premier temps, une caractérisation expérimentale du comportement viscoélastique des colles a été menée. Elle met en particulier l’accent sur les non-linéarités induites par les deux paramètres de chargements retenus que sont le cisaillement et la pression hydrostatique.Dans un deuxième temps, une étude plus fine de la microstructure a été effectuée numériquement. Une série d’hypothèses de modélisation a été faite. Les résultats de ces calculs - plutôt qualitatifs - permettent de dégager les tendances sur l’influence de la présence des charges conductrices sur la réponse macroscopique du joint adhésif.Enfin, la tenue en fatigue des joints et sa dépendance à leur vieillissement a été abordée expérimentalement. L’influence de l’atmosphère et du confinement pendant le vieillissement sur l’évolution de la tenue en fatigue a été mise en évidence pour les deux colles étudiées dans cette thèse. Les résultats obtenus ont permis de proposer des lois de fatigue dont certains paramètres dépendent du vieillissement
The substitution of soldering by electrically conductive adhesive bonding in electronic assemblies is of growing interest in the oil-and-gas industry. These electronic assemblies should nowadays work at high temperature and pressure levels during their service lives. The question of the long-term reliability of adhesive bonding becomes in this context a critical issue. The study of the fatigue strength of adhesive joints as well as the influence of ageing on this strength is therefore crucial for the final deployment of adhesive bonding. This work aims at addressing this fatigue lifetime prediction for two different commercial adhesives in electronic tools, and studying the influence of ageing on the lifetime prediction. Two types of ageing were implemented: an open-air ageing and a confined inert ageing (under Argon).An experimental characterization of the viscoelastic behavior of the two adhesive joints was first carried out. In particular, the non-linearities due to each of the loading parameter (simple shear and hydrostatic pressure) were highlighted and modeled.The microstructural heterogeneity brought by the metallic conductive fillers was then numerically studied. The numerical model introduces several approximations that make the results qualitative, but they highlight the influence of the fillers on the global macroscopic behavior of the adhesive joint.The question of the fatigue strength of adhesive joints and its evolution with ageing is finally experimentally addressed. The influence of the atmosphere and confinement of ageing on the lifetime prediction is clearly noticed for the two joints studied in this work. Fatigue criteria with some of the parameters evolving this ageing are proposed to fit the results experimentally obtained
APA, Harvard, Vancouver, ISO, and other styles
15

Artola, Laurent. "Étude et modélisation des mécanismes de transport et de collection de charges dédiées à la prédiction de SEE dans les technologies fortement intégrées." Toulouse, ISAE, 2011. http://www.theses.fr/2011ESAE0025.

Full text
Abstract:
L'environnement radiatif naturel est connu pour être une source de disfonctionnement en microélectronique depuis de nombreuses années. Des particules telles que des neutrons, protons, ions lourds, ont été identifiées comme responsable d'erreurs de fonctionnement (SEE) dans des composants? Il est primordial pour les acteurs du domaine spatial et avionique de pouvoir évaluer ce risque. C'est dans ce contexte qu'une nouvelle méthodologie de prédiction est proposée afin d'estimer le taux opérationnel d'erreurs vis-àvis du risque SEE dans des composants toujours plus intégrés embarqués en vol. Des travaux TCAD ont permis d'identifier les mécanismes physiques de transport / collection et de déterminer les paramètres technologiques critiques qui influent sur le comportement des transistors MOS. Ces travaux démontrent qu'il est indispensable de modéliser dynamiquement le coefficient de diffusion ambipolaire et la vitesse de collection. C'est sur la base de ces travaux que le modèle ADDICT (Advanced Dynamic Diffusion Collection Transient) a été proposé. Une partie significative des travaux s'est focalisée sur la validation de ce modèle de courant transitoire par des comparaisons avec des données expérimentales et de simulations TCAD. Afin d'étudier les SEU / MBU, un nouveau critère de basculement a été proposé, le couplage de ce critère ADDICT constituant une nouvelle méthode de prédiction. Cette méthode a été confrontée avec des sections efficaces expérimentales issues de la littérature ou bien de campagnes de test (mémoires SRAM de 0. 25 µm à 65 nm). Enfin, le modèle ADDICT a été évalué dans le cadre d'expériences embarquées en ballon de mémoires SRAM 90 nm commercial Cypress. Cette phase a permis de démontrer la pertinence d'ADDICT dans le cas opérationnel
Natural radiative environment is known to induce functional errors in electronics. Particles, such as neutrons, protons or heavy ions are known to induce these errors in electronic devices so called SEE (Single Event Effects). It's critical for industrial and space agencies to evaluate this risk. In this context, a new methodology of prediction is proposed in order to stimate the operational error rate for integrated devices boarded in space or avionic flights. Preliminary TCAD simulations lead to identify the physical mechanisms of transport and charges collection and lead to determine the critical technological parameters which impact the behaviour of the MOS transistor. These works emphasize the necessity to take into account the dynamic modeling of ambipolar diffusion velocity. Based on these works, the ADDICT model (Advanced Dynamic Diffusion Collection Transient) has been proposed. The main part of this work is focus on the validation of the transient current model by comparisons with experimental results ans TCAD simulations. In order to study the SEU and MBU events, a new upset criterion used with ADDICT leads to propose a new prediction methodology. This methodology has been compared with experimental cross sections issued from literature and tests campaign (for various SRAM memories from 0. 25 µm to 65 nm). Finally the ADDICT model has been evaluated for operational experiments. Actually, commercial SRAM memories (90 nm Cypress) has been boarded on stratospheric balloons. This last work shows the relevant operational prediction proposed by ADDICT
APA, Harvard, Vancouver, ISO, and other styles
16

Dolbeault, Sylvie. "La détresse des patients atteints de cancer : prévalence, facteurs prédictifs, modalités de repérage et de prise en charge." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00432252.

Full text
Abstract:
La maladie cancéreuse est largement associée à la notion de souffrance psychique, et les besoins en terme de soutien psychologique ou de suivi psychothérapeutique sont vastes dans cette population de patients soumise à de nombreux événements stressants. L'existence d'un vaste continuum des manifestations de la détresse en cancérologie en rend l'évaluation clinique difficile. Sous-estimée et mal évaluée, elle n'est pas toujours prise en compte de façon appropriée. Or, ces troubles ont un retentissement direct non seulement sur la qualité de vie des patients mais aussi sur leur capacité à partager les décisions, à adhérer aux traitements et en conséquence à bénéficier des meilleurs soins disponibles pour le traitement de leur maladie somatique. Compte tenu de la diversité des formes cliniques de détresse, des méthodes de dépistage sont nécessaires pour repérer les patients qui ont le plus besoin de l'intervention d'un psycho-oncologue. Notre premier travail a consisté à adapter un outil de dépistage de la détresse qui permet d'identifier des états de détresse significative. Couplée à une évaluation de la qualité de vie, cette approche permet également la détermination de facteurs prédictifs de détresse sur notre population française et la comparaison avec les résultats de la littérature internationale. Associée à une évaluation des besoins du patient ainsi que de ses ressources personnelles et environnementales, la démarche de dépistage ainsi structurée doit permettre de mieux détecter les patients en détresse ou à risque de décompensation psychologique, en vue de leur proposer un accompagnement sur mesure. Cette mise en perspective de la notion de détresse nous semble représenter un pré-requis pour tous les professionnels de la cancérologie. Si elle n'est qu'une première étape pour le psycho-oncologue, elle facilite néammoins l'accès aux patients en situation de détresse significative pour lesquels ses compétences devront être mises à profit. Mettant en avant la nécessité d'évaluer les pratiques de soins psycho-oncologiques pour adapter les formats d'interventions existants à notre population française en s'inspirant des expériences décrites dans d'autres pays, la deuxième partie de notre travail décrit un essai randomisé destiné à évaluer un groupe d'inspiration cognitivo-comportementale avec intégration d'une dimension d'éducation thérapeutique, proposé à des femmes à l'issue de leur traitement d'un cancer du sein. Cette étude démontre l'intérêt de l'approche groupale structurée sur la réduction de l'anxiété ainsi que sur certaines dimensions du profil d' état d'humeur et de la qualité de vie. Les participantes témoignent par ailleurs d'un haut niveau de satisfaction. Dans le champ des interventions psychothérapiques, notre étude confirme la faisabilité de ce format d'approche psycho-oncologique structurée pour une population de femmes françaises peu familiarisées à ces méthodes. Les recherches à venir devront se focaliser sur l'évaluation d'interventions plus spécifiques et proposées à des patients présentant des troubles psychopathologiques avérés, afin de mieux identifier les bénéfices de nos traitements psycho-oncologiques. Aux côtés de l'équipe médico-chirurgicale, le psychiatre psycho-oncologue se consacre aux patients atteints de cancer qui présentent par ailleurs un trouble psychopathologique structuré. Cette comorbidité représente en effet un lourd handicap dans les moments clefs d'un parcours de soins, et divers enjeux en résultent, que ce soit en terme de qualité de vie ou de perte de chance potentielle du fait de comportement de non adhésion aux traitements recommandés, voire d'occultation ou de déni de la réalité somatique. Nos priorités de recherche consisteront à déterminer pour ces patients les modalités de prise en charge optimales. L'effort d'organisation, de hiérarchisation des besoins et d'évaluation des pratiques décrit ici dans le champ de la psycho-oncologie, peut servir de modèle pour la prise en charge plus globale des patients dans le cadre des soins de support, d'installation récente en France. En effet, cette nouvelle organisation des soins est sous-tendue par la même nécessité d'identifier des patients relevant de situations complexes, et d'évaluer les nouvelles modalités de leur prise en charge par des experts en prenant en compte leurs besoins et si possible leurs attentes, les capacités de réponse des équipes de professionnels, tant sur les plans quantitatif que qualitatif, les priorités de l'institution et plus globalement celles de la société.
APA, Harvard, Vancouver, ISO, and other styles
17

Dolbeault, Sylvie. "La détresse des patients atteints de cancer : prévalence, facteurs prédictifs, modalités de répérage et de prise en charge." Paris 6, 2009. http://www.theses.fr/2009PA066207.

Full text
Abstract:
La maladie cancéreuse génère une souffrance psychique qui n'est pas toujours repérée alors qu’elle a un retentissement direct sur la qualité de vie du patient, sa capacité à partager les décisions et à adhérer aux traitements. Ce travail de thèse en psycho-oncologie a consisté d’une part à adapter un outil de dépistage de la détresse permettant d'identifier une détresse significative et de déterminer ses facteurs prédictifs en population française. Avec un seuil à 3 sur une échelle de 0 à 10, nos résultats sont congruents avec ceux de la littérature internationale. D’autre part, il décrit un essai randomisé destiné à évaluer un groupe d'inspiration cognitivo-comportementale avec intégration d'une dimension d'éducation thérapeutique, proposé à des femmes à l'issue de leur traitement d'un cancer du sein. Cette étude démontre la faisabilité et l'efficacité de l’intervention structurée sur la réduction de l'anxiété ainsi que sur certaines dimensions du profil d'état d'humeur et de la qualité de vie. Nos priorités de recherche futures consisteront à déterminer pour les patients présentant une comorbidité cancer et troubles psychopathologiques, les modalités de prise en charge optimales.
APA, Harvard, Vancouver, ISO, and other styles
18

Jourdan, Véronique. "Prise en charge des traumatismes crâniens bénins dans un service d'urgences : analyse prospective des facteurs prédictifs de lésions." Montpellier 1, 2000. http://www.theses.fr/2000MON11058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Bitu, Fabien. "L'apport des technologies interactives dans l'étude des composantes sensorielles de la créativité." Electronic Thesis or Diss., Normandie, 2022. http://www.theses.fr/2022NORMC027.

Full text
Abstract:
Les technologies numériques sont omniprésentes dans le quotidien des enfants et adolescents. Les technologies interactives comme les tablettes tactiles semblent particulièrement attractives et faciles d’utilisation, apportant des bénéfices sur les apprentissages scolaires. La question se pose alors de savoir si ces avantages peuvent s’observer également pour d’autres formes d’activité ne faisant pas l’objet d’un apprentissage. Dans ce cadre, nous nous intéresserons aux activités créatives. Bien que la créativité soit conçue comme un phénomène de nature multifactorielle, les composantes sensorimotrices n’ont été que très peu intégrées dans le processus créatif. Pourtant, Dietrich et Haider (2015) ont récemment suggéré que le processus permettant de générer une idée créative emprunterait le même mécanisme que celui utilisé pour contrôler une action réalisée ou imaginée au travers de la prédiction sensorimotrice. Les afférences sensorielles étant centrales dans le contrôle de l’action sensorimotrice, elles pourraient être considérées comme des facteurs constitutifs de la créativité. Selon cette proposition, il pourrait être suggéré que modifier les afférences sensorielles disponibles dans une tâche pourrait moduler la créativité. Dans cette thèse, nous interrogeons cette relation entre créativité et sensorimotricité. Au travers de 4 études expérimentales, nous avons fait varier les afférences sensorielles disponibles dans une tâche créative en faisant dessiner des enfants et adolescents de 6 à 15 ans sur tablette tactile au doigt, au stylet, et sur papier au stylo. Les résultats montrent effectivement qu’augmenter les afférences sensorielles en utilisant le doigt sur tablette tactile améliore l’originalité à tout âge. En revanche, réduire les afférences sensorielles lors de l’utilisation du stylet n’amène pas aux mêmes effets sur les performances d’originalité selon l’âge des participants. Chez les enfants de 6-7 ans, utiliser le stylet sur tablette tactile ne modifie pas les performances d’originalité. Après 8 ans, les enfants réalisent des dessins plus originaux au stylet sur tablette tactile qu’au stylo sur papier. L’effet bénéfique du stylet sur les performances créatives à partir de cet âge pourrait s’expliquer par l’acquisition de la capacité à compenser la perte d’afférences sensorielles qui permet de maximiser les informations sensorielles, apportant ainsi des bénéfices sur l’originalité. Ces bénéfices de la tablette tactile s’observent également chez des adolescents qui, du fait de troubles du comportement, présentent des difficultés dans la mobilisation de leurs capacités cognitives. De plus, ces adolescents rapportent une préférence majoritaire pour l’utilisation du support tactile en comparaison du support papier, qui serait lié à une plus grande mobilisation sensorielle dans la production des gestes graphiques sur l’interface. Nous discutons de l’implication de ces résultats pour la nature du processus créatif et son développement, ainsi que l’utilisation d’afférences sensorielles pour aider les enfants et adolescents typiques, comme atypiques, à mobiliser plus efficacement leurs capacités cognitives
Digital technologies are omnipresent in children and adolescents’ daily life. Interactive technologies such as touchscreens seem particularly attractive and easy to use, bringing benefits on school learning. The question arises whether these benefits can be also observed with other types of activities that are not subject to learning. In this work, we will specifically focus on creative framework. Although creativity is conceived as a multifactorial phenomenon, sensorimotor components have been very little integrated in creative process. Yet, Dietrich and Haider (2015) recently suggested that the process allowing to generate a creative idea would use the same mechanism than the one used to control a real or imagined action through sensorimotor prediction. Thereby, sensory afferences being central in sensorimotor action control, could be considered as one of the constitutive factors of creativity. In this thesis, we question this relationship between creativity and sensorimotricity. Through 4 experimental studies, we varied available sensory afferences in a creative drawing task by asking 6 to 15 years old children and adolescents to draw on touchscreen with finger, with stylus, and on paper with a pen. The results indeed show that enhancing sensory afferences with finger on touchscreen enhances originality at all age. However, lowering sensory afferences with the use of a stylus does not bring to the same effects on originality performance according to the age of participants. In children aged 6-7 years old, using a stylus on tablet does not modify originality performances. After 8 years old, children realize more original drawings with the use of a stylus on touchscreen than with a pen on paper. The observed benefits on creative performances from this age could be explained by the acquired capacity to compensate a sensory loss, that allow to maximize sensory information, thus leading to originality benefits. These benefits with finger and with stylus are also observed with adolescents who, because of disruptive behavior disorder, show difficulties in mobilizing cognitive capacities. Qualitative data acquired from adolescents with this trouble yields a major preference for tactile rather than paper support, that would be linked to a higher sensory mobilization in the production of graphic gestures on the interface. We discuss of the implication of these results for the creative process nature and its development, as well as using sensory afference to help typical and atypical children and adolescents to mobilize cognitive capacities more efficiently
APA, Harvard, Vancouver, ISO, and other styles
20

Garnier, Pierre. "Etude des propriétés viscoélastiques d'un nitrile chargé sous sollicitations cycliques : application à la prédiction de la durée de vie des pompes à rotor excentré." Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22274.

Full text
Abstract:
L’étude de la durabilité des élastomères des stators des pompes Moineau a été menée en utilisant à la fois des simulations numériques, des essais thermomécaniques et des analyses physico-chimiques. Les simulations numériques ont eu pour principal objectif de permettre de déterminer la localisation et le niveau des maximums des champs mécaniques dans le stator. Les essais ont permis quant à eux de caractériser le comportement mécanique du matériau élastomère sous sollicitations mécaniques cycliques à différentes températures. Une première étude a permis d’analyser l’évolution de l’effet Payne en fatigue. Une seconde s’est concentrée sur l’analyse de l’effet de l’application d’un chargement thermomécanique sur l’évolution de la microstructure du matériau élastomère
The study of the sustainability of the rubber, which is the main constitutive material of the Moineau pump stator, was carried out using finite element analyses, thermomechanical experiments and physic-chemical analysis. The numerical simulations were performed to identify the range and location of the maximal stress and strain within the pump stator. The experimental tests allowed to characterize the mechanical behaviour of rubber under cyclic solicitation at several temperatures. The first part of the study focused on the Payne effect during fatigue loading while the second dealt with the effect of a thermomechanical loading on the rubber microstructure evolution
APA, Harvard, Vancouver, ISO, and other styles
21

Daviet, Jean-Christophe. "Facteurs prédictifs du devenir vital et fonctionnel d’une cohorte d’hémiplégiques vasculaires : conséquences sur les modalités de prise en charge." Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/79737b65-cfe6-4b35-bc58-b9a5316fa823/blobholder:0/2004LIMO310E.pdf.

Full text
Abstract:
La prise en charge des accidents vasculaires cérébraux (AVC) est depuis quelques années une priorité de santé publique en France et a fait l’objet de recommandations ministérielles. Dans ce contexte, nous avons mené des travaux dont le but était de déterminer les facteurs prédictifs du devenir fonctionnel et vital des patients atteints d’AVC et d’évaluer leur impact au plan global de l’organisation de la filière de soins et au plan des prises en charge individuelles. Nous avons conduit une étude prospective de suivi d’une cohorte de 156 primo-AVC hémisphériques en se plaçant dans les conditions d’une enquête d’observation. Ce travail a permis de conclure, en accord avec les travaux antérieurs essentiellement anglo-saxons, que les principaux facteurs prédictifs du devenir fonctionnel à un an sont les troubles de la conscience, les troubles sensoriels, un déficit moteur majeur, les troubles cognitifs, l’incontinence urinaire à J2 et J15, un Index de Barthel initial faible et l’existence de co-morbidités. L’âge en lui-même n’était pas un facteur prédictif. Nous avons étudié plus spécifiquement le rôle des troubles vésico-sphinctériens. Pour structurer la filière hospitalière en post-aigu, nous avons appliqué les critères d’aide à l’orientation des patients, retenus par la société française de Médecine Physique et de Réadaptation et repris dans une circulaire ministérielle récente. Nous avons montré que la situation familiale du patient et ses possibilités de retour à domicile étaient aussi importantes dans le choix du service de soins de suite que l’évaluation prédictive du niveau fonctionnel. Des travaux complémentaires ont été consacrés aux prises en charge individuelles, concernant notamment le Syndrome Douloureux Régional Complexe de type I (SDRC I). Une première étude prospective cas-témoins sur une cohorte de 71 hémiplégiques suivis pendant 3 mois a montré que le pronostic et la réponse au traitement du SDRC I sont étroitement liés au pronostic de l’hémiplégie et à sa récupération. En effet, l’évolution du SDRC I semblait plus influencée par la récupération de l’hémiplégie que par la prise en charge thérapeutique actuelle. Deux autres études incluant un total de 60 patients ont montré que la mesure transcutanée de la pression partielle d’oxygène n’est pas suffisamment reproductible pour être utilisée dans l’étude du SDRC I. Il n’existe toujours pas d’examen complémentaire pour l’aide au diagnostic et pour le suivi évolutif de ce syndrome. De telles études de suivi longitudinal de cohorte, dans les conditions d’enquête d’observation, sont indispensables pour quantifier au niveau national les besoins en matière de prise en charge des AVC et pour évaluer la mise en application des recommandations
Since few years in France, stroke care is a priority of public health. The Ministry of Health gave recommendations for a national management and care of stroke patients. In this way, we performed studies to determine early predictive factors of functional outcome and to evaluate their impact on stroke care organisation. We conducted an observational cohort study including a population of 156 first hemispherical stroke. This work concluded, in accordance with previous studies, that early predictive factors of poor functional outcome at D360 were: severity of motor deficit, severity of the disabilities evaluated by the Barthel index, initial loss of consciousness, neuropsychological disorders, urinary incontinence, prestroke myocardial infarction and prestroke disabilities. Age itself did not seem to be predictive factor. We have studied more specifically the impact of urinary disorders. To organise post-acute stroke care, we used criteria according to a national guideline recommended by the French Society of Physical Medicine and Rehabilitation and by the Ministry of Health for a national management and care of stroke patients. Thus, we observed that the impact of early predictive factors of poor functional outcome on discharge must be considered in relation with family status. Family status had an important influence on discharge modalities and home return. Complementary works were conducted concerning individual treatments, especially the complex regional pain syndrome type 1 (CRPS I). A first prospective case-series study, including 71 hemiplegic patients, shown that the CRPS I severity and its progression were strongly correlated with the hemiplegia severity. The CRPS I progression was more influenced by hemiplegia evolution than by specific treatments. Two others studies, including 60 patients, shown that measurement of transcutaneous oxygen tension did not seem to be sufficiently reproducible for application to a pathology such as the CRPS I. Actually, their is no complementary exploration to evaluate CRPS I after stroke. The field of rehabilitation has seen several stroke rehabilitation guidelines published in recent years with very little work done on describing the implementation phase or the impact of using these guidelines on clinical
APA, Harvard, Vancouver, ISO, and other styles
22

Jeanson, Lisa. "Vers un modèle prédictif de la charge mentale et des performances sur postes répétitifs de fabrication dans l'industrie automobile." Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0190.

Full text
Abstract:
En 2004, le Groupe PSA a développé le PSA Excellent System, un mode d’organisation basé sur les principes du Lean Manufacturing ayant pour objectif d’optimiser leur production. Un des piliers de ce système est les « standards de travail » (SoW) conçu par les ingénieurs méthodes. En théorie, les SoW permettent l’équilibrage des postes de travail, c.-à-d. l’organisation des tâches que les opérateurs peuvent réaliser dans une période donnée. L’objectif est de maintenir la performance et la santé des opérateurs. Malgré, cette approche, des erreurs des plaints émergent toujours des lignes d’assemblage. Pour comprendre ces phénomènes, nous avons construit une nouvelle approche basée sur la comparaison entre les tâches réelles et prescrites. Nous avons démontré que les différences entre les SoW et le comportement des opérateurs correspondaient à des régulations individuelles ou anticipées/collectives. Ces régulations sont des stratégies utilisées par les opérateurs pour faire face à des contraintes de production, dont la charge mentale, qui ne sont pas prises en compte dans la conception des postes de travail. En d’autres termes, les régulations sont le symptôme d’une dichotomie entre les règles de conception des postes de travail et les contraintes réelles de production. En particulier, alors que certaines contraintes comme la pression temporelle nécessitent la mise en place d’automatismes (des comportements efficients et en grande partie inconscients), d’autres contraintes comme les contraintes spatio-temporelles, les variations dans l’activité, la complexité de la tâche, un niveau de risque élevé ou encore une charge informationnelle élevée, requièrent des comportements réflexifs (qui sont lents et nécessitent un haut niveau d’attention). Nos résultats finaux démontrent que, lorsque nous réduisons le niveau de certaines de ces contraintes et permettant aux opérateurs de mettre en place des automatismes dans leurs tâches, nous minimisons du même coup le risque d’erreur et le besoin de recourir à des stratégies en dehors du SoW
In 2004, PSA developed PSA Excellent System, an organizational system based on the Lean Manufacturing principles to optimize vehicle production. One of the pillars of it is the follow up of a "work standard" (SoW) designed by the methods engineers. In theory, SoW allow for the balancing of shifts, i.e. the organization of tasks that operators can perform within a given period. The objective here is to maintain the operators' performance and health. Despite this approach, errors and complaints on the assembly lines still emerge. To understand these phenomena, we constructed a new approach based on the comparison between prescribed and real tasks. In fact, we found that discrepancies between SoW and workers' behaviour correspond to anticipated/collective and individual regulations. These regulations are strategies used by workers to cope with production constraints, such as mental workload, that are not taken into account during the design of workstations. Thus, regulations are a symptom of a dichotomy between the rules shaping workstations design and real production constraints. Especially, while certain constraints such as time pressure, require automatic behaviours (that are efficient and mostly unconscious), other constraints such as spatio-temporal restrictions, work variations, task complexity, high level of risk and information load, bring the need to use reflexive behaviours (that are slow and require a high level of attention). Our final results showed that, when we reduce level of constraints and allow workers to perform their task automatically, we therefore minimize the risk of errors, and the need to use regulations
APA, Harvard, Vancouver, ISO, and other styles
23

Mazouni, Chafika. "Evaluation et validation de marqueurs pronostiques et prédictifs dans la prise en charge des patientes présentant un cancer du sein." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX20701.

Full text
Abstract:
L’identification de marqueurs pronostiques et prédictifs du cancer du sein est un facteur important pour une meilleure compréhension du processus évolutif et le développement de thérapies ciblées. Les récepteurs des oestrogènes (RE) représentent ainsi à la fois un marqueur pronostique mais aussi prédictif du traitement par le tamoxifène ou les anti-aromatases. Cependant, un certain nombre de patientes vont évoluer en dépit de traitements anti-hormonaux adaptés. L’objectif de notre travail, a été d’évaluer la méthode de mesure des RE, l’apport des protéases dans la distinction de profils tumoraux pronostiques et prédictifs. Nous avons démontré l’influence du mode de mesure des RE et en particulier de l’expression quantitative sur l’interprétation pronostique et sur une meilleure détermination du bénéfice du traitement en fonction du niveau d’expression des RE. Nous avons montré l’intérêt de l’évaluation des protéases tissulaires uPA, PAI-I et cathépsine-D, pour caractériser l’hétérogénéité des tumeurs en complément des RE. Particulièrement, chez les patientes RE+, des taux élevés de cathépsine-D et de PAI-1 étaient un indicateur de mauvais pronostic. Nous avons développé un nomogramme combinant RE et le statut ganglionnaire à 3 types de protéases : PAI-1, cathépsine-D et la thymidine kinase, pour déterminer la probabilité de survie à 2 et 5 ans. De plus, ces protéases évaluées dans les tumeurs infectées par l’Epstein-Barr virus (EBV), témoignaient de tumeurs biologiquement agressives avec des taux plus élevés de thymidine kinase. Notre travail a contribué à améliorer l’identification de profils des tumeurs en fonction des RE et des protéases et de caractériser les tumeurs viro-induites
The identification of prognostic and predictive markers is important for a better understanding of the evolutionary process and the development of targeted therapies. Thus estrogen receptors (ER) represent both an important prognostic marker but also predictive of therapies using tamoxifen or aromatase inhibitors. However, a number of patients will evolve despite hormonotherapy. The objective of our work was to evaluate the method for measuring ER, the contribution of proteases in the distinction of prognostic and predictive tumor profiles. In our work, we demonstrated the influence of the mode of measure of ER and in particular its quantitative expression on the prognostic interpretation and a better determination of benefit of treatment depending on the level of expression of ER. We show the interest of the evaluation of tissue proteases uPA, PAI-I and cathepsin-D, to characterize the heterogeneity of tumors in addition to ER. Specifically, in ER + patients, high levels of cathepsin-D and PAI-1 are an indicator of poor prognosis. We developed a nomogram combining ER and nodal status, to 3 types of proteases: PAI-1, cathepsin-D and thymidine kinase, to determine the probability of survival at 2 and 5 years. In addition, these proteases are evaluated in tumors infected with the Epstein-Barr virus (EBV) and shows high rates of thymidine kinase in EBV + BC, reflecting biologically aggressive tumors. Our work has helped to improve the identification of profiles of tumors according to ER and proteases and characterize virus-associated tumors
APA, Harvard, Vancouver, ISO, and other styles
24

Soret, Perrine. "Régression pénalisée de type Lasso pour l’analyse de données biologiques de grande dimension : application à la charge virale du VIH censurée par une limite de quantification et aux données compositionnelles du microbiote." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0254.

Full text
Abstract:
Dans les études cliniques et grâce aux progrès technologiques, la quantité d’informations recueillies chez un même patient ne cesse de croître conduisant à des situations où le nombre de variables explicatives est plus important que le nombre d’individus. La méthode Lasso s'est montrée appropriée face aux problèmes de sur-ajustement rencontrés en grande dimension.Cette thèse est consacrée à l'application et au développement des régressions pénalisées de type Lasso pour des données cliniques présentant des structures particulières.Premièrement, chez des patients atteints du virus de l'immunodéficience humaine des mutations dans les gènes du virus peuvent être liées au développement de résistances à tel ou tel traitement.La prédiction de la charge virale à partir des mutations (potentiellement grand) permet d'orienter le choix des traitements.En dessous d'un seuil, la charge virale est indétectable, on parle de données censurées à gauche.Nous proposons deux nouvelles approches Lasso basées sur l'algorithme Buckley-James consistant à imputer les valeurs censurées par une espérance conditionnelle. En inversant la réponse, on peut se ramener à un problème de censure à droite, pour laquelle des estimations non-paramétriques de l'espérance conditionnelle ont été proposées en analyse de survie. Enfin, nous proposons une estimation paramétrique qui repose sur une hypothèse Gaussienne.Deuxièmement, nous nous intéressons au rôle du microbiote dans la détérioration de la santé respiratoire. Les données du microbiote sont sous forme d'abondances relatives (proportion de chaque espèce par individu, dites données compositionnelles) et elles présentent une structure phylogénétique.Nous avons dressé un état de l'art des méthodes d'analyses statistiques de données du microbiote. En raison de la nouveauté, peu de recommandations existent sur l'applicabilité et l'efficacité des méthodes proposées. Une étude de simulation nous a permis de comparer la capacité de sélection des méthodes de pénalisation proposées spécifiquement pour ce type de données.Puis nous appliquons ces recherches à l'analyse de l'association entre les bactéries/champignons et le déclin de la fonction pulmonaire chez des patients atteints de la mucoviscidose du projet MucoFong
In clinical studies and thanks to technological progress, the amount of information collected in the same patient continues to grow leading to situations where the number of explanatory variables is greater than the number of individuals. The Lasso method proved to be appropriate to circumvent over-adjustment problems in high-dimensional settings.This thesis is devoted to the application and development of Lasso-penalized regression for clinical data presenting particular structures.First, in patients with the human immunodeficiency virus, mutations in the virus's genetic structure may be related to the development of drug resistance. The prediction of the viral load from (potentially large) mutations allows guiding treatment choice.Below a threshold, the viral load is undetectable, data are left-censored. We propose two new Lasso approaches based on the Buckley-James algorithm, which imputes censored values ​​by a conditional expectation. By reversing the response, we obtain a right-censored problem, for which non-parametric estimates of the conditional expectation have been proposed in survival analysis. Finally, we propose a parametric estimation based on a Gaussian hypothesis.Secondly, we are interested in the role of the microbiota in the deterioration of respiratory health. The microbiota data are presented as relative abundances (proportion of each species per individual, called compositional data) and they have a phylogenetic structure.We have established a state of the art methods of statistical analysis of microbiota data. Due to the novelty, few recommendations exist on the applicability and effectiveness of the proposed methods. A simulation study allowed us to compare the selection capacity of penalization methods proposed specifically for this type of data.Then we apply this research to the analysis of the association between bacteria / fungi and the decline of pulmonary function in patients with cystic fibrosis from the MucoFong project
APA, Harvard, Vancouver, ISO, and other styles
25

Bizollon, Thierry. "Contribution à l'étude des facteurs prédictifs de l'évolution et de la prise en charge thérapeutique de la récidive virale C après transplantation hépatique." Lyon 1, 2002. http://www.theses.fr/2002LYO1T126.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Crombé, Amandine. "Développement des approches radiomics à visées diagnostique et pronostique pour la prise en charge de patients atteints des sarcomes des tissus mous." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0059.

Full text
Abstract:
Les sarcomes des tissus mous (STM) sont des tumeurs malignes mésenchymateuses ubiquitaires hétérogènes en terme de présentations cliniques, radiologiques, histologiques, moléculaires et pronostiques. L’imagerie de référence des STM est l’IRM avec injection de produit de contraste qu’il s’agisse du bilan initial, de l’évaluation de la réponse aux traitements, de la planification préopératoire ou de la recherche de rechute locale. De plus, l’IRM permet d’accéder à la tumeur en place, in vivo, dans sa globalité et de manière non invasive, en complément des analyses anatomo-pathologiques et moléculaires qui nécessitent des prélèvements invasifs ne correspondant qu’à une infime fraction du volume tumoral. Cependant, aucun biomarqueur radiologique n’a été validé dans la prise en charge des STM. Parallèlement, se sont développés (i) d’autres modalités et séquences d’imagerie quantitative permettant d’aboutir à une quantification de phénomène physiopathologique intratumoraux, (ii) des techniques d’analyse d’image permettant de quantifier les phénotypes radiologiques au-delà de ce que peut voir l’œil humain à travers de multiples indicateurs de texture et de forme (: indices radiomics), et (iii) des outils d’analyses mathématiques (: algorithme de machine-learning) permettant d’intégrer et trier toutes ces informations dans des modèles prédictifs. Les approches radiomics correspondent au développement de modèles prédictifs basés sur ces algorithmes et ces indices radiomics. L’objectif de cette thèse est de mettre en application ces innovations et de les optimiser pour améliorer la prise en charge des patients atteints de STM. Pour cela, trois grands axes ont été développés. Dans une première partie, nous avons cherché à améliorer la prédiction du pronostic de patients atteints de certains sarcomes en combinant approches radiologiques classiques et approches radiomics sur leur IRM initiale, avec comme potentielle application de mieux identifier les patients à haut risque de rechute métastatique. Dans une deuxième partie, nous avons construit un modèle basé sur l’évolution précoce de l’hétérogénéité intratumorale ( : delta-radiomics) de patients atteints de STM traités par chimiothérapie néoadjuvante afin d’identifier les patients n’y répondant pas favorablement et qui pourraient bénéficier d’adaptations thérapeutiques anticipées. Dans une troisième et dernière partie, nous avons cherché à identifier et mieux contrôler les biais potentiels des approches radiomics afin, in fine, d’optimiser les modélisations prédictives basées sur les indices radiomics
Soft-tissue sarcomas (STS) are malignant ubiquitous mesenchymal tumors that are characterized by their heterogeneity at several levels, i.e. in terms of clinical presentation, radiological presentation, histology, molecular features and prognosis. Magnetic resonance imaging (MRI) with a contrast-agent injection is the imaging of reference for these tumors. MRI enables to perform the local staging, the evaluation of response to treatment, to plan the surgery and to look for local relapse. Furthermore, MRI can access non-invasively to the whole tumor in situ and in vivo which is complementary to histopathological and molecular analyses requiring invasive biopsy samples at risk of sampling bias. However, no imaging biomarker dedicated to STS has been validated so far. Meanwhile, technical innovations have been developed, namely: (i) alternative imaging modalities or MRI sequences that can quantify intratumoral physiopathological phenomenon; (ii) image analysis tools that can quantify radiological phenotypes better than human’s eyes through hundreds of textural and shape quantitative features (named radiomics features); and (iii) mathematical algorithms that can integrate all these information into predictive models (: machine-learning). Radiomics approaches correspond to the development of predictive models based on machine-learning algorithms and radiomics features, eventually combined with other clinical, pathological and molecular features. The aim of this thesis was to put these innovations into practice and to optimize them in order to improve the diagnostic and therapeutic managements of patients with STS.In the first part, we combined radiological and radiomics features extracted from the baseline structural MRIs of patients with a locally-advanced subtype of STS in order to build a radiomics signature that could help to identify patients with higher risk of metastatic relapse and may benefit from neoadjuvant treatments. In the second part, we elaborated a model based on the early changes in intratumoral heterogeneity (: delta-radiomics) on structural MRIs of patients with locally-advanced high-grade STS treated with neoadjuvant chemotherapy, in order to rapidly identify patients who do not respond to treatment and would benefit from early therapeutic adjustments. In the last part, we tried to better identify and control potential bias in radiomics approaches in order to optimize the predictive models based on radiomics features
APA, Harvard, Vancouver, ISO, and other styles
27

Cluze, Monique. "Facteurs prédictifs de la réussite ou de l'échec de la prise en charge de malades alcooliques dans le service d'alcoologie du Centre hospitalier général de Valence (Drôme)." Lyon 1, 1992. http://www.theses.fr/1992LYO1M010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Abdennadher, Mohamed Karim. "Étude et élaboration d’un système de surveillance et de maintenance prédictive pour les condensateurs et les batteries utilisés dans les Alimentations Sans Interruptions (ASI)." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10101/document.

Full text
Abstract:
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d’alimentation spécifiques. Il s’agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d’indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en œuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D’autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en œuvre et leurs contraintes d’implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d’obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d’amélioration de notre système afin d’obtenir un SOH plus précis
To ensure power quality and permanently, some electronic system supplies exist. These supplies are the Uninterrupted Power Supplies (UPS). An UPS like any other system may have some failures. This can be a cause of redundancy loss. This load loss causes a maintenance downtime which may represent a high cost. We propose in this thesis to work on two of the most sensitive components in the UPS namely electrolytic capacitors and lead acid batteries. In a first phase, we present the existing surveillance systems for these two components, highlighting their main drawbacks. This allows us to propose the specifications which have to be implemented for this system. For electrolytic capacitors, we detail different stages of characterization ; the aging accelerated standard experimental procedure and their associated results. On the other hand, we present the simulation results of monitoring and failure prediction system retained. We discuss the experimental validation, describing the developed system. We detail the electronic boards designed, implemented algorithms and their respective constraints for a real time implementation. Finally, for lead acid batteries, we present the simulation results of the monitoring system adopted to obtain the SOC and SOH. We describe the aging experimental procedure of charging and discharging cycles of the batteries needed to find a simple and accurate electric models. We explain the aging experimental results and in the end we give suggestions for improving our system to get a more accurate SOH
APA, Harvard, Vancouver, ISO, and other styles
29

Broglio, Annie. "Prédiction par automates." Aix-Marseille 1, 1991. http://www.theses.fr/1991AIX11385.

Full text
Abstract:
Nous introduisons une notion de prediction pour des suites infinies sur un alphabet a q elements. Nous lisons a l'aide d'un automate une suite, lettre a lettre puis precisions a chaque etape une lettre que nous comparons a la lettre suivante de la suite. Nous calculons alors un rapport de bonne prediction. Les suites normales (c'est-a-dire completement aleatoires) sont celles ayant un rapport 1/q. Les sous-suites obtenues a l'aide d'un automate ont le meme ensemble de rapports de prediction que les suites dont elles sont extraites. Nous construisons de bons predicteurs pour certaines suites de faible complexite
APA, Harvard, Vancouver, ISO, and other styles
30

Roy, Samir Chandra. "Analyse et modélisation du comportement de divers matériaux en érosion de cavitation." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI081/document.

Full text
Abstract:
A ce jour il n'est toujours pas possible de prédire avec exactitude le phénomène d'érosion par cavitation. La raison principale est qu'il est difficile de caractériser l'agressivité de l'écoulement. Cette thèse propose d'utiliser une méthode inverse pour estimer l'agressivité de l'écoulement à partir de l'observation des cratères (pits) imprimées sur la surface dans les premiers instants de l'érosion de cavitation. Trois matériaux ont été testés dans la veine d'écoulement PREVERO disponible au LEGI de Grenoble dans les mêmes conditions expérimentales. La géométrie des pits laissés sur la surface est précisément mesurée à l'aide d'une méthode systématique permettant de s'affranchir de l'effet de rugosité. Supposant que chaque pit a été généré par une bulle unique dont le champ de pression est assimilé à une forme Gaussienne, des calculs par éléments finis permettent d'estimer le chargement qui a créé l'empreinte résiduelle. On montre que la distribution des chargements suit une loi universelle indépendante du matériau testé; le matériau le plus tendre (alliage d'aluminium) mesurant les plus faibles impacts tandis que le matériau le plus résistant (Acier inoxydable) donne accès aux plus grandes pressions d'impact. On en conclu que le matériau peut être utilisé comme capteur de pression mesurant le niveau d'agressivité de l'écoulement. La méthode inverse repose sur une caractérisation mécanique des matériaux prenant en compte la sensibilité de la contrainte à la vitesse de déformation. On montre que les essais de nanoindentation sont mieux adaptés que les essais de compression pour déterminer les paramètres de la loi de comportement, notamment pour l'alliage d'aluminium pour lequel la microstructure est très hétérogène. Des essais de compression à haute vitesse par barres de Hopkinson complètent la loi de comportement en donnant la sensibilité à la vitesse de déformation. Des simulations prenant en compte la dynamique du chargement montrent que des impacts de fort amplitude mais appliqués sur un temps court ne laissent pas d'empreinte résiduelle si la fréquence est plus élevée que la fréquence naturelle du matériau assimilé à un oscillateur amorti. Un mécanisme d'accumulation dynamique de la déformation plastique pouvant conduire à la rupture par fatigue est proposé. Finalement, la courbe de perte de masse est simulée en appliquant aléatoirement sur un maillage 3D, la population d'impacts estimée par la méthode inverse
Numerical prediction of cavitation erosion requires the knowledge of flow aggressiveness, both of which have been challenging issues till-date. This thesis proposes to use an inverse method to estimate the aggressiveness of the flow from the observation of the pits printed on the surface in the first moments of the cavitation erosion. Three materials were tested in the same experimental conditions in the cavitation tunnel PREVERO available LEGI Grenoble. The geometry of the pits left on the surface is precisely measured using a systematic method to overcome the roughness effect. Assuming that each pit was generated by a single bubble collapse whose pressure field is treated as a Gaussian shape, finite element calculations are run for estimating the load that created each residual imprint. It is shown that the load distribution falls on a master curve independent of the tested material; the softer material (aluminum alloy) measuring the lowest impacts while the most resistant material (duplex stainless steel) provides access to the largest impact pressures. It is concluded that the material can be used as a pressure sensor measuring the level of aggressiveness of the flow. The inverse method is based on a material characterization taking into account strain rate effects. It is shown that nanoindentation tests are more suitable than compression tests to determine the parameters of the behavior law, particularly for the aluminum alloy for which the microstructure is very heterogeneous. High-speed compression tests with split Hopkinson pressure bars complement the constitutive law giving the sensitivity to the strain rate. Simulations considering the dynamic loading show that impacts of strong amplitude but applied in a short time do not leave any residual pit if the frequency is higher than the natural frequency of the material treated as a damped oscillator. A dynamic mechanism of plastic strain accumulation that could eventually lead to fatigue failure is proposed. Finally, the mass loss curve of cavitation erosion is simulated by applying randomly on a 3D mesh, the impact force population estimated by the inverse method
APA, Harvard, Vancouver, ISO, and other styles
31

Heeke, Simon. "Développement et implémentation de nouveaux biomarqueurs prédictifs dans le cancer du poumon non à petites cellules - du tissu à la biopsie liquide." Electronic Thesis or Diss., Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR6015.

Full text
Abstract:
Le cancer du poumon est la principale cause de décès liés au cancer dans le monde, tant chez les hommes que chez les femmes. Cependant, le traitement du cancer du poumon a radicalement changé au cours de ces dernières années avec la mise en place de chimiothérapies plus efficaces, mais surtout le développement de traitements ciblés qui permettent une approche thérapeutique personnalisée et avec l'introduction de l'immunothérapie qui a considérablement prolongé la survie de certains patients atteints d’un cancer du poumon non à petites cellules (CPNPC). Bien que ces nouvelles approches thérapeutiques aient permis d'obtenir des réponses parfois spectaculaires, un nombre assez important de patients sont réfractaires à ces traitements. Dans ce contexte, le développement de nouveaux biomarqueurs permettant de sélectionner le meilleur traitement pour le bon patient et au bon moment est crucial pour améliorer les résultats cliniques des patients atteints de CPNPC. Tous les biomarqueurs actuellement à l’étude ne sont pas en mesure d'améliorer cette prédiction, en particulier, la mise en place de certains biomarqueurs en routine clinique est souvent difficile, alors que les résultats préliminaires obtenus in vitro ou même dans les essais cliniques initiaux étaient prometteurs. L'objectif de la thèse a été d’évaluer et d’implémenter de nouveaux biomarqueurs prédictifs de la réponse à l’immunothérapie et aux thérapies ciblées pour la sélection thérapeutique des patients atteints de CPNPC. Dans la première partie de la thèse, est abordé l’importance des biobanques et de la maitrise des ressources biologiques comme pierre angulaire du développement de ces nouveaux biomarqueurs. Nous avons mis en place un mode de fonctionnement qui permet d'entreposer en toute sécurité des collections biologiques d'intérêt et de les utiliser pour les études de recherche de biomarqueurs. Nous décrivons comment une biobanque dédiée à une seule pathologie peut être instaurée et utilisée à des fins de recherche.Au cours de cette thèse est abordée l'évaluation génomique de l'ADN libre plasmatique (cell-free DNA : cfDNA) pour la détection des mutations spécifiques du récepteur du facteur de croissance épidermique (Epidermal growth Factor Receptor : EGFR) est étudiée et évaluée. Nous avons analysé rétrospectivement 324 patients sur une période de trois ans à partir de trois tests biologiques utilisés en routine clinique et nous avons pu démontrer que ces tests sont très « robustes » mais doivent être étroitement contrôlés afin d’éviter de faux résultats positifs ou négatifs. Nous avons ensuite évalué le séquençage à haut débit de l’ADN plasmatique chez ces patients à l'aide d'un test interne développé au laboratoire et d'un test externe et nous avons pu démontrer que ces deux tests étaient fiables pour la détection des altérations génomiques du plasma en routine clinique. Dans la dernière partie de la thèse, je décris comment l'évaluation de grands panels de séquençage ciblés capables d'évaluer la charge tumorale mutationnelle peut être utilisée pour sélectionner les patients pouvant bénéficier d’une immunothérapie anti-tumorale et quels pièges doivent être évités afin d’utiliser ce biomarqueur en routine clinique.En résumé, cette thèse montre la place croissante des nouveaux biomarqueurs permettant la stratification des patients atteints CPNPC pour adapter rapidement leur traitement et décrit les différentes étapes de l’implémentation de ces biomarqueurs tissulaires et circulants dans les soins cliniques courants
Lung cancer is the leading cause of cancer-related deaths worldwide for both men and women. However, the treatment of lung cancer has changed radically in recent years with the introduction of more effective chemotherapies, but above all the development of targeted treatments that allow a personalized therapeutic approach and the introduction of immunotherapy that has considerably prolonged the survival of some patients with non-small cell lung cancer (NSCLC). Although these new therapeutic approaches have made it possible to obtain sometimes spectacular responses, a fairly large number of patients are resistant to these treatments. In this context, the development of new biomarkers to select the best treatment for the right patient at the right time is crucial to improving clinical outcomes for NSCLC patients. Nevertheless, not all biomarkers currently under study are able to improve this prediction, in particular, the implementation of some biomarkers in clinical routine is often difficult, whereas preliminary results obtained in vitro or even in initial clinical trials were promising.The objective of the thesis was to evaluate and implement new biomarkers that predict the response to immunotherapy and targeted therapies for the therapeutic selection of NSCLC patients. The first part of the thesis discusses the importance of biobanks and the control of biological resources as a cornerstone for the development of these new biomarkers. We have implemented an operating procedure that allows us to safely store biological collections of interest and use them for biomarker research studies. We describe how a biobank dedicated to a single pathology can be established and used for research purposes.Additionally, the genomic evaluation of cell-free DNA (cfDNA) for the detection of specific mutations of the Epidermal growth Factor Receptor receptor (EGFR) is studied and evaluated. We retrospectively analyzed 324 patients over a three-year period from three biological tests used in routine clinical practice and were able to demonstrate that these tests are very robust but must be closely controlled to avoid false positive or negative results. We then evaluated the next-generation sequencing (NGS) of plasma DNA using an internal test developed in the laboratory and an external test and were able to demonstrate that both tests were reliable for the detection of genomic alterations in plasma in clinical routine. In the last part of the thesis, I describe how the evaluation of large targeted sequencing panels capable of assessing mutation tumor load can be used to select patients for anti-tumor immunotherapy and what pitfalls should be avoided in order to use this biomarker in clinical routine.In summary, this thesis demonstrates the importance of novel biomarkers for the stratification ofpatients undergoing therapy in NSCLC and contributed to the implementation of tissue and liquidbiopsy-based biomarkers in routine clinical care
APA, Harvard, Vancouver, ISO, and other styles
32

Nguyen, Thi Thu Tam. "Learning techniques for the load forecasting of parcel pick-up points." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG034.

Full text
Abstract:
La livraison de colis en points relais (PR) ou en consigne automatique est une alternative intéressante à la livraison à domicile, que ce soit pour des achats auprès de commerçants en ligne (B2C) ou sur des plateformes de vente entre particuliers (C2C). Un colis peut être livré en PR à un coût réduit et reste plusieurs jours à disposition du client avant d'être retourné au vendeur. Cependant, lorsque le PR choisi est saturé, le colis peut être refusé par le gestionnaire du PR et livré à un autre PR sur la tournée du transporteur. Ceci engendre une perte de temps pour le client et donc du mécontentement. Afin d'améliorer la satisfaction du client, lors d'un achat de produit il est donc important que le gestionnaire des PR (GPR) ne propose que des PR qui seront susceptibles d'accepter les colis. Cette tâche est complexe à cause des délais de livraison : un colis n'affecte la charge d'un PR qu'un à quelques jours après la commande, selon le transporteur. Cette thèse a pour objectif de prédire l'évolution de la charge d'un PR afin de permettre à un GPR de mieux équilibrer les charges de PR géographiquement proches et de limiter le risque de refus d'un colis. Pour cela, une analyse des historiques de charges de PR est effectuée afin de déterminer les paramètres importants influant sur la charge. Des modèles statistiques et issus de l'intelligence artificielle sont ensuite comparés. Dans une première partie, nous considérons la charge des PR liée aux achats en ligne effectués auprès de sites marchands (B2C). La modélisation de l'évolution de la charge d'un PR tient compte du nombre de colis dans chaque état (prêt à être expédié, en transit, livré au PR). Ensuite, le cycle de vie d'un colis est pris en compte dans le processus de prédiction, via des modèles des flux de commandes, des délais de livraison, et du processus de retrait. L'approche proposée reposant sur un modèle est comparée avec des approches exploitant la série temporelle du nombre de livraisons, de retraits et de la charge en termes de précision de prédiction. Dans un deuxième temps, nous considérons la partie de la charge des PR liée aux colis issus des sites de vente entre particuliers (C2C). Dans cette approche, la probabilité qu'un colis contribue à la charge d'un PR est évaluée en fonction de la connaissance de l'état du colis au moment de la prédiction. Le cycle de vie du colis est modélisé par un processus markovien à sauts. De plus, le nombre de colis déposés à destination d'un PR donné est décrit par un modèle autorégressif à changements markoviens (MSAR) pour prendre en compte de la non-stationarité de l'activité de vente entre particuliers. Les paramètres des modèles sont estimés à partir de données historiques sur les dates de chaque étape: dépôt, collecte, livraison et retrait. Il est ensuite possible de déduire la probabilité de la charge future d'un PR. Cette approche est à nouveau comparée à des techniques exploitant la série temporelle de la charge (modèle de Holt-Winters, SARIMA ou LSTM). Dans les deux cas, l'approche proposée considérant le cycle de vie des colis donne de meilleures performances de prédiction, en particulier pour la prédiction jusqu'à quatre jours à l'avance dans le cas du B2C et jusqu'à six jours à l'avance dans le cas du C2C, en comparaison avec les modèles de type LSTM, Holt-Winters, ou SARIMA. Ces résultats permettent de prédire la charge d'un PR avec une erreur relative de 3 colis à 1 jour, et de 7 colis à 3 jours pour les colis B2C, et de 5 colis à 1 jour et de 8 colis à 7 jours pour les colis C2C. Compte-tenu des délais entre commande et livraison (en général de 1 à 3 jours pour le B2C et de 4-5 jours pour le C2C), ces techniques de prédiction sont utiles pour permettre un équilibrage de la charge de PR voisins. Les travaux futurs seront pour but d’améliorer les approches de prévision et de déterminer une méthode d’équilibrage de charge pour mieux gérer le flux de colis
Pick-Up Points (PUP) represent an alternative delivery option for purchases from online retailers (Business-to-Customer, B2C) or online Customer-to-Customer (C2C) marketplaces. Parcels are delivered at a reduced cost to a PUP and wait until being picked up by customers or returned to the original warehouse if their sojourn time is over. When the chosen PUP is overloaded, the parcel may be refused and delivered to the next available PUP on the carrier tour. PUP load forecasting is an efficient method for the PUP management company (PMC) to better balance the load of each PUP and reduce the number of rerouted parcels. This thesis aims to describe the parcel flows in a PUP and to proposed models used to forecast the evolution of the load. For the PUP load associated with the B2C business, the parcel life-cycle has been taken into account in the forecasting process via models of the flow of parcel orders, the delivery delays, and the pick-up process. Model-driven and data-driven approaches are compared in terms of load-prediction accuracy. For the PUP load associated with the C2C business, the daily number of parcels dropped off with a given PUP as target is described by a Markov-Switching AutoRegressive model to account for the non-stationarity of the second-hand shopping activity. The life-cycle of each parcel is modeled by a Markov jump process. Model parameters are evaluated from previous parcel drop-off, delivery, and pick-up records. The probability mass function of the future load of a PUP is then evaluated using all information available on parcels with this PUP as target. In both cases, the proposed model-driven approaches give, for most of the cases, better forecasting performance, compared with the data-driven models, involving LSTM, Random forest, Holt-Winters, and SARIMA models, up to four days ahead in the B2C case and up to six days ahead in the C2C case. The first approach applied to the B2C parcel load yields an MAE of 3 parcels for the one-day ahead prediction and 8 parcels for the four-day ahead prediction. The second approach applied to the C2C parcel load yields an MAE of 5 parcels for the one-day ahead prediction and 8 parcels for the seven-day ahead prediction. These prediction horizons are consistent with the delivery delay associated with these parcels (1-3 days in the case of a B2C parcel and 4-5 days in the case of a C2C parcel). Future research directions aim at optimizing the prediction accuracy, especially in predicting future orders and studying a load-balancing approach to better share the load between PUPs
APA, Harvard, Vancouver, ISO, and other styles
33

Doorgah, Naraindranath. "Contribution à la modélisation prédictive CEM d'une chaine d'entrainement." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00838823.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Abdennadher, Mohamed. "Étude et élaboration d'un système de surveillance et de maintenance prédictive pour les condensateurs et les batteries utilisés dans les Alimentations Sans Interruptions (ASI)." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00806065.

Full text
Abstract:
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d'alimentation spécifiques. Il s'agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d'indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en œuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D'autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en œuvre et leurs contraintes d'implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d'obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d'amélioration de notre système afin d'obtenir un SOH plus précis.
APA, Harvard, Vancouver, ISO, and other styles
35

Gerth, Lutz Martin. "Électrodéposition de cuivre à partir de solutions sulfuriques : mesures locales de la densité de courant dans des cellules à hydrodynamique complexe." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL153N.

Full text
Abstract:
Ce travail se situe dans le cadre d'un programme européen ayant pour objet l'élaboration d'un code de calcul pour la prédiction de distributions de densité de courant, de potentiel et de courant dans un réacteur électrochimique. Notre contribution concerne l'obtention de données expérimentales pour le développement et la validation de ce code: l'exemple de l'électrodéposition de cuivre en milieu sulfaté a été choisi comme réaction test. Dans un premier temps, nous avons déterminé les données physico-chimiques du système considéré ; à l'aide de techniques électrochimiques complémentaires, nous avons mis en évidence l'importance de la préparation de la surface d'électrode. L’ensemble des résultats communiqué à nos partenaires a rendu possible la prédiction de distributions dans différentes configurations. Dans un deuxième temps, les réactions ont été mises en œuvre dans deux cellules électrochimiques dont les géométries répondent aux contraintes fixées écoulement bidimensionnel ou axisymétrique tout en n'étant pas trop éloigné des réacteurs électrochimiques d'intérêt industriel: (i) cellule à plaques parallèles, à écoulement laminaire ou turbulent établi avec ou sans obstacle à l'écoulement et, (ii), cellule de déposition par jet immergé. La procédure de mesure des distributions de courant dans les cellules, au moyen de microélectrodes et d'un systeme d'acquisitions simultanées, a fait l'objet d'une recherche technologique importante. La comparaison, pas toujours aisée, des résultats théoriques et expérimentaux, fait l'objet d'une discussion approfondie
APA, Harvard, Vancouver, ISO, and other styles
36

Bello, Léa. "Prédiction des structures convectives terrestres." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL0977/document.

Full text
Abstract:
Depuis sa formation, la Terre subit un refroidissement lent. La chaleur provenant du noyau et de la désintégration des éléments radioactifs présents dans le manteau est évacuée vers la surface par convection. L’évolution des structures thermiques ainsi créées contrôle de nombreux phénomènes de surface tels que le mouvement des continents et le niveau marin. L’étude présentée ici s’attache à déterminer quelles structures convectives terrestres peuvent être reconstruites, sur quelle période de temps et avec quelle précision. La chaoticité de la convection implique que les incertitudes initialement présentes sur le champ de température croissent exponentiellement au cours du temps et peuvent créer des structures convectives artificielles dans les modèles. A l’aide de la méthode des expériences jumelles initialement développée par Lorenz [1965] en météorologie, le temps de Lyapunov et l’horizon de prédiction sont calculés pour la première fois en géodynamique mantellique. Différentes rhéologies sont étudiées. La valeur du temps de Lyapunov pour notre modèle le plus proche de la Terre suggère qu’une erreur de 5% sur les conditions initiales limite l’horizon de prédiction à 95 millions d’années. D’autre part, la qualité de la prédiction des structures thermiques dépend de notre capacité à décrire de façon réaliste les propriétés rhéologiques du manteau. L’utilisation d’une rhéologie pseudo-plastique dans les modélisations de convection en 3D sphérique, permet aujourd’hui de générer une tectonique de plaques compatible au premier ordre avec les caractéristiques cinématiques de la surface terrestre. Une stratégie cohérente de reconstruction peut alors être élaborée. L’état thermique actuel du manteau est reconstruit en imposant les vitesses de surface de ces 200 derniers millions d’années [Seton et al., 2012; Shephard et al., 2013] sur un modèle de convection généré par le code StagYY [Tackley, 2008]. La morphologie et la position des slabs reconstruits varient considérablement avec le contraste de viscosité et la pseudo-plasticité. L’erreur introduite par l’utilisation de rhéologies différentes lors des reconstructions est ainsi plus importante que les erreurs liées aux incertitudes sur les conditions initiales et les vitesses de surface. Ces résultats montrent l’importance du choix la rhéologie sur la qualité des prédictions réalisées. Ils mettent également en évidence rôle clé du contraste de viscosité et de la pseudo-plasticité pour reconstruire des slabs cohérents et des subductions plates, structures propres à la convection terrestre
Since its formation, the Earth is slowly cooling. The heat produced by the core and the radioactive decay in the mantle is evacuated toward the surface by convection. The evolving convective structures thereby created control a diversity of surface phenomena such as vertical motion of continents or sea level variation. The study presented here attempts to determine which convective structures can be predicted, to what extent and over what timescale. Because of the chaotic nature of convection in the Earth’s mantle, uncertainties in initial conditions grow exponentially with time and limit forecasting and hindcasting abilities. Following the twin experiments method initially developed by Lorenz [1965] in weather forecast, we estimate for the first time the Lyapunov time and the limit of predictability of Earth’s mantle convection. Our numerical solutions for 3D spherical convection in the fully chaotic regime, with diverse rheologies, suggest that a 5% error on initial conditions limits the prediction of Earth’s mantle convection to 95 million years. The quality of the forecast of convective structures also depends on our ability to describe the mantle properties in a realistic way. In 3D numerical convection experiments, pseudo plastic rheology can generate self-consistent plate tectonics compatible at first order with Earth surface behavior [Tackley, 2008]. We assessed the role of the temperature dependence of viscosity and the pseudo plasticity on reconstructing slab evolution, studying a variety of mantle thermal states obtained by imposing 200 million years of surface velocities extracted form tectonic reconstructions [Seton et al., 2012; Shephard et al., 2013]. The morphology and position of the reconstructed slabs largely vary when the viscosity contrast increases and when pseudo plasticity is introduced. The errors introduced by the choices in the rheological description of the mantle are even larger than the errors created by the uncertainties in initial conditions and surface velocities. This work shows the significant role of initial conditions and rheology on the quality of predicted convective structures, and identifies pseudo plasticity and large viscosity contrast as key ingredients to produce coherent and flat slabs, notable features of Earth’s mantle convection
APA, Harvard, Vancouver, ISO, and other styles
37

Vekemans, Denis. "Algorithmes pour méthodes de prédiction." Lille 1, 1995. http://www.theses.fr/1995LIL10176.

Full text
Abstract:
Supposant connaître quelques termes d'une suite, nous définissons une méthode de prédiction comme étant un procédé capable de fournir une approximation des termes suivants. Nous utilisons des méthodes d'extrapolation, qui servent généralement à accélérer la convergence des suites, pour construire des méthodes de prédiction. Souvent, les méthodes de prédiction nécessitent la résolution d'un système linéaire (ou non linéaire). Mais, grâce aux algorithmes relatifs aux méthodes d'extrapolation, dans ce travail, nous les évitons. De plus, nous pouvons donner des résultats de consistance pour ces méthodes.
APA, Harvard, Vancouver, ISO, and other styles
38

Carré, Clément. "Prédiction génétique des caractères complexes." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2912/.

Full text
Abstract:
L'objectif de cette thèse est le développement des approches statistiques pour la prédiction génétique de caractères complexes. Quatre approches adaptées à différentes situations génétiques, sont développées. En situation d'additivité, un modèle linéaire qui combine les données de transmission génétique avec des marqueurs SNP se révèle utile quand les SNP ne capturent pas l'ensemble des effets génétiques influençant le caractère. En situation des effets génétiques non-linéaires, une méthode de régression à noyaux (Nadaraya-Watson) produit des prédictions plus précises que celles données par la méthode standard (BLUP). Après cette comparaison entre méthodes paramétriques et non paramétriques, il est utile de les faire coopérer entre eux : une méthode d'agrégation statistique s'est révélée efficiente et robuste pour le mélange de prédicteurs. Enfin, un algorithme original de projections aléatoires de modèles linéaires permet de retrouver rapidement les paramètres du modèle, dans le cas où celui-ci est parcimonieux
The objective of this thesis is the development of statistical approaches for genetic prediction of complex traits. Four approaches are developed, adapted to different genetic contexts. Under additivity, a linear model combining transmission and SNP marker data is useful when the SNP do not capture all genetic effects influencing the trait. Under nonlinear genetic effects, a kernel regression method (Nadaraya-Watson) yields more precise predictions than the standard method (BLUP). After the comparison of parametric vs. Nonparametric methods, we propose to combine methods : a statistical aggregation method is efficient and robust to mix several predictors. Finally, an original algorithm of random projections of linear models allows rapid recovery of parsimonious model parameters
APA, Harvard, Vancouver, ISO, and other styles
39

Hmamouche, Youssef. "Prédiction des séries temporelles larges." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Full text
Abstract:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
APA, Harvard, Vancouver, ISO, and other styles
40

Hmamouche, Youssef. "Prédiction des séries temporelles larges." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Full text
Abstract:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
APA, Harvard, Vancouver, ISO, and other styles
41

Wandeto, John Mwangi. "Self-organizing map quantization error approach for detecting temporal variations in image sets." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD025/document.

Full text
Abstract:
Une nouvelle approche du traitement de l'image, appelée SOM-QE, qui exploite quantization error (QE) des self-organizing maps (SOM) est proposée dans cette thèse. Les SOM produisent des représentations discrètes de faible dimension des données d'entrée de haute dimension. QE est déterminée à partir des résultats du processus d'apprentissage non supervisé du SOM et des données d'entrée. SOM-QE d'une série chronologique d'images peut être utilisé comme indicateur de changements dans la série chronologique. Pour configurer SOM, on détermine la taille de la carte, la distance du voisinage, le rythme d'apprentissage et le nombre d'itérations dans le processus d'apprentissage. La combinaison de ces paramètres, qui donne la valeur la plus faible de QE, est considérée comme le jeu de paramètres optimal et est utilisée pour transformer l'ensemble de données. C'est l'utilisation de l'assouplissement quantitatif. La nouveauté de la technique SOM-QE est quadruple : d'abord dans l'usage. SOM-QE utilise un SOM pour déterminer la QE de différentes images - typiquement, dans un ensemble de données de séries temporelles - contrairement à l'utilisation traditionnelle où différents SOMs sont appliqués sur un ensemble de données. Deuxièmement, la valeur SOM-QE est introduite pour mesurer l'uniformité de l'image. Troisièmement, la valeur SOM-QE devient une étiquette spéciale et unique pour l'image dans l'ensemble de données et quatrièmement, cette étiquette est utilisée pour suivre les changements qui se produisent dans les images suivantes de la même scène. Ainsi, SOM-QE fournit une mesure des variations à l'intérieur de l'image à une instance dans le temps, et lorsqu'il est comparé aux valeurs des images subséquentes de la même scène, il révèle une visualisation transitoire des changements dans la scène à l'étude. Dans cette recherche, l'approche a été appliquée à l'imagerie artificielle, médicale et géographique pour démontrer sa performance. Les scientifiques et les ingénieurs s'intéressent aux changements qui se produisent dans les scènes géographiques d'intérêt, comme la construction de nouveaux bâtiments dans une ville ou le recul des lésions dans les images médicales. La technique SOM-QE offre un nouveau moyen de détection automatique de la croissance dans les espaces urbains ou de la progression des maladies, fournissant des informations opportunes pour une planification ou un traitement approprié. Dans ce travail, il est démontré que SOM-QE peut capturer de très petits changements dans les images. Les résultats confirment également qu'il est rapide et moins coûteux de faire la distinction entre le contenu modifié et le contenu inchangé dans les grands ensembles de données d'images. La corrélation de Pearson a confirmé qu'il y avait des corrélations statistiquement significatives entre les valeurs SOM-QE et les données réelles de vérité de terrain. Sur le plan de l'évaluation, cette technique a donné de meilleurs résultats que les autres approches existantes. Ce travail est important car il introduit une nouvelle façon d'envisager la détection rapide et automatique des changements, même lorsqu'il s'agit de petits changements locaux dans les images. Il introduit également une nouvelle méthode de détermination de QE, et les données qu'il génère peuvent être utilisées pour prédire les changements dans un ensemble de données de séries chronologiques
A new approach for image processing, dubbed SOM-QE, that exploits the quantization error (QE) from self-organizing maps (SOM) is proposed in this thesis. SOM produce low-dimensional discrete representations of high-dimensional input data. QE is determined from the results of the unsupervised learning process of SOM and the input data. SOM-QE from a time-series of images can be used as an indicator of changes in the time series. To set-up SOM, a map size, the neighbourhood distance, the learning rate and the number of iterations in the learning process are determined. The combination of these parameters that gives the lowest value of QE, is taken to be the optimal parameter set and it is used to transform the dataset. This has been the use of QE. The novelty in SOM-QE technique is fourfold: first, in the usage. SOM-QE employs a SOM to determine QE for different images - typically, in a time series dataset - unlike the traditional usage where different SOMs are applied on one dataset. Secondly, the SOM-QE value is introduced as a measure of uniformity within the image. Thirdly, the SOM-QE value becomes a special, unique label for the image within the dataset and fourthly, this label is used to track changes that occur in subsequent images of the same scene. Thus, SOM-QE provides a measure of variations within the image at an instance in time, and when compared with the values from subsequent images of the same scene, it reveals a transient visualization of changes in the scene of study. In this research the approach was applied to artificial, medical and geographic imagery to demonstrate its performance. Changes that occur in geographic scenes of interest, such as new buildings being put up in a city or lesions receding in medical images are of interest to scientists and engineers. The SOM-QE technique provides a new way for automatic detection of growth in urban spaces or the progressions of diseases, giving timely information for appropriate planning or treatment. In this work, it is demonstrated that SOM-QE can capture very small changes in images. Results also confirm it to be fast and less computationally expensive in discriminating between changed and unchanged contents in large image datasets. Pearson's correlation confirmed that there was statistically significant correlations between SOM-QE values and the actual ground truth data. On evaluation, this technique performed better compared to other existing approaches. This work is important as it introduces a new way of looking at fast, automatic change detection even when dealing with small local changes within images. It also introduces a new method of determining QE, and the data it generates can be used to predict changes in a time series dataset
APA, Harvard, Vancouver, ISO, and other styles
42

Hoen, Bruno. "Pronostic et prédiction en pathologie infectieuse." Nancy 1, 1995. http://www.theses.fr/1995NAN10445.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Maucort-Boulch, Delphine. "Modélisation et prédiction : application en cancérologie." Lyon 1, 2007. http://www.theses.fr/2007LYO10067.

Full text
Abstract:
Lorsque l'objectif est la prédiction, les modèles statistiques doivent répondre à un certain nombre de critères. Ces critères varient selon que l'on s'intéresse à une prédiction marginale ou à une prédiction individuelle. A partir de deux applications en cancérologie, nous avons réfléchi aux particularités et aux critères des modèles pronostiques. Le premier exemple traite de la prédiction marginale de l'effet de la chimioprévention du cancer du sein sur la survie globale d'une population de femmes à haut risque. Le second exemple traite de la prédiction individuelle à partir d'un modèle marginal pour des individus atteints de lymphome de Hodgkin. Les mesures de la qualité prédictive des modèles ont été étudiées, plus particulièrement dans le contexte de la survie et du modèle de Cox
When dealing with prediction, statistical models have to fit some criteria. The requirements are different for marginal predictions and for individual predictions. Based on two exemples in oncology, particularities and criteria of prognostic models are explored. The first exemple deals with the margianl effect of breast cancer chemoprevention on overall survival for women at high risk. The second exemple deals with individual prediction with a marginal model for Hodgkin's lymphoma patients. Measures of predictive quality are studied, in particular in survival context, especially in Cox proportional hazards model
APA, Harvard, Vancouver, ISO, and other styles
44

Onzon, Emmanuel. "Prédiction statistique efficace et asymptotiquement efficace." Paris 6, 2012. http://www.theses.fr/2012PA066531.

Full text
Abstract:
L'objet de cette thèse est, d'une part, de compléter les travaux qui ont porté sur la généralisation de l'inégalité de Cramér-Rao pour les prédicteurs, d'autre part, de généraliser la notion d'efficacité asymptotique à la prédiction statistique. Le Chapitre 1 rassemble des rappels sur les résultats de la théorie de l'estimation ponctuelle qui sont essentiels dans les chapitres suivants. L'inégalité de Cramér-Rao pour les prédicteurs fait l'objet du Chapitre 2. Le Chapitre 3 traite de l'efficacité asymptotique des estimateurs de la fonction de régression pour un risque particulier ainsi que de l'efficacité asymptotique pour la prédiction sous la condition que le risque de prédiction est asymptotiquement équivalent au risque d'estimation de la fonction de régression. Dans le Chapitre 4 nous donnons des conditions sous lesquelles l'équivalence asymptotique des risques utilisée au chapitre précédent est vérifiée. Dans le Chapitre 5 nous montrons un résultat de convergence en loi et l'utilisons pour donner une définition alternative de l'efficacité asymptotique pour les prédicteurs. Le Chapitre 6 présente des résultats de simulations d'un problème de prévision du processus de Ornstein-Uhlenbeck
The subject of this thesis is, on one hand, to complete previous works about the generalization of Cramér-Rao inequality to predictors, and on the other hand, to generalize the concept of asymptotic efficiency to statistical prediction. Chapter 1 reminds results of point estimation theory which are essential in the following chapters. The Cramér-Rao inequality for predictors is the subject of Chapter 2. Chapter 3 deals with asymptotic efficiency of estimators of the regression function for a peculiar risk as well as asymptotic efficiency for prediction under the condition that the prediction risk is asymptotically equivalent to the estimation risk of the regression function. In Chapter 4 we give conditions under which the asymptotic equivalence of risks used in the previous chapter is satisfied. In Chapter 5 we prove a result of convergence in distribution and use it to give an alternative definition of asymptotic efficiency for predictors. Chapter 6 presents results of simulations of a problem of forecasting of the Ornstein-Uhlenbeck process
APA, Harvard, Vancouver, ISO, and other styles
45

Hublart, Paul. "Exploring the use of conceptual catchment models in assessing irrigation water availability for grape growing in the semi-arid Andes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS181.

Full text
Abstract:
La thèse explore l’utilisation de modèles hydrologiques globaux pour estimer la disponibilité en eau agricole dans le contexte des Andes chiliennes semi-arides. Dans cette région, l’approvisionnement en eau des cultures irriguées de fonds de vallée durant l’été dépend de précipitations se produisant sous forme de neige à haute altitude lors de quelques évènements hivernaux. L’influence des phénomènes ENSO et PDO induit par ailleurs une forte variabilité climatique à l’échelle inter-annuelle, marquée par l’occurrence d’années extrêmement sèches ou humides. La région connaît aussi depuis les années 1980 une progression importante de la viticulture irriguée. Afin de prendre en compte les variations saisonnières et inter-annuelles de la disponibilité et de la consommation en eau d’irrigation, une chaîne de modélisation intégrée a été développée et différentes méthodes de quantification/réduction des incertitudes de simulation ont été mises en œuvre. Les écoulements naturels ont été simulés avec un modèle hydrologique global de type empirique/conceptuel prenant en compte les processus d’accumulation et d’ablation de la neige. En parallèle, les besoins en eau d’irrigation ont été estimés à l’échelle du bassin à partir de modèles phénologiques orientés processus et d’une approche simple du bilan hydrique du sol. Dans l’ensemble, une approche holistique et parcimonieuse a été privilégiée afin de maintenir un niveau d’abstraction mathématique et de représentation des processus équivalent à celui des modèles de bassin couramment utilisés. Afin d’améliorer l’utilité et la fiabilité des simulations obtenues en contexte de changement ou de forte variabilité climatique, l’effet des températures extrêmes sur le développement des cultures et l’impact des pertes en eau par sublimation à haute altitude ont fait l’objet d’une attention particulière. Ce cadre de modélisation conceptuel a été testé pour un bassin typique des Andes semi-arides (1512 km2, 820–5500 m a.s.l.) sur une période de 20 ans incluant une large gamme de conditions climatiques et des pratiques agricoles non-stationnaires (évolution des variétés de vigne, des surfaces et modes d’irrigation, etc). L’évaluation des modèles a été réalisée dans un cadre bayésien en faisant l’hypothèse d’erreurs auto-corrélées, hétéroscédastiques et non-gaussiennes. Différents critères et sources de données ont par ailleurs été mobilisés afin de vérifier l’efficacité et la cohérence interne de la chaîne de modélisation ainsi que la fiabilité statistique et la finesse des intervalles de confiance obtenus. De manière alternative, une caractérisation des erreurs de structure et de l’ambiguïté propre au choix du modèle hydrologique a été réalisée de manière non-probabiliste à partir d’une plate-forme de modélisation modulaire. Dans l’ensemble, la prise en compte explicite de la consommation en eau des cultures a mis en valeur certaines interactions entre paramètres hydrologiques et permis d’améliorer la fiabilité des simulations hydrologiques en année sèche. Finalement, une étude de sensibilité à différents seuils d’augmentation de la température et de la concentration en CO2 a été effectuée afin d’évaluer l’impact potentiel des changements climatiques sur le comportement de l’hydrosystème et la capacité à satisfaire la demande en eau d’irrigation dans le futur
This thesis investigates the use of lumped catchment models to assess water availability for irrigation in the upland areas of northern-central Chile (30°S). Here, most of the annual water supply falls as snow in the high Cordillera during a few winter storms. Seasonal snowpacks serve as natural reservoirs, accumulating water during the winter and sustaining streams and aquifers during the summer, when irrigation demand in the cultivated valleys is at its peak. At the inter-annual timescale, the influence of ENSO and PDO phenomena result in the occurrence of extremely wet and dry years. Also, irrigated areas and grape growing have achieved a dramatic increase since the early 1980s. To evaluate the usefulness of explicitly accounting for changes in irrigation water-use in lumped catchment models, an integrated modeling framework was developed and different ways of quantifying/reducing model uncertainty were explored. Natural streamflow was simulated using an empirical hydrological model and a snowmelt routine. In parallel, seasonal and inter-annual variations in irrigation requirements were estimated using several process-based phenological models and a simple soil-water balance approach. Overall, this resulted in a low-dimensional, holistic approach based on the same level of mathematical abstraction and process representation as in most commonly-used catchment models. To improve model reliability and usefulness under varying or changing climate conditions, particular attention was paid to the effects of extreme temperatures on crop phenology and the contribution of sublimation losses to water balance at high elevations. This conceptual framework was tested in a typical semi-arid Andean catchment (1512 km2, 820–5500 m a.s.l.) over a 20–year simulation period encompassing a wide range of climate and water-use conditions (changes in grape varieties, irrigated areas, irrigation techniques). Model evaluation was performed from a Bayesian perspective assuming auto-correlated, heteroscedastic and non-gaussian residuals. Different criteria and data sources were used to verify model assumptions in terms of efficiency, internal consistency, statistical reliability and sharpness of the predictive uncertainty bands. Alternatively, a multiple-hypothesis and multi-criteria modeling framework was also developed to quantify the importance of model non-uniqueness and structural inadequacy from a non-probabilistic perspective. On the whole, incorporating the effects of irrigation water-use led to new interactions between the hydrological parameters of the modeling framework and improved reliability of streamflow predictions during low-flow periods. Finally, a sensitivity analysis to changes in climate conditions was conducted to evaluate the potential impacts of increasing temperatures and atmospheric CO2 on the hydrological behavior of the catchment and the capacity to meet future water demands
APA, Harvard, Vancouver, ISO, and other styles
46

Tan, Ewe Hong. "Effets des interactions polymère - charge et charge - charge sur les propriétés dynamiques." Mulhouse, 1992. http://www.theses.fr/1992MULH0230.

Full text
Abstract:
Le but de cette thèse était d'étudier, à différents taux de charge, l'influence d'une série de noirs de carbone commerciaux, d'une silice précipitée, ainsi que de la même silice modifiée au hexadécyltriéthoxysilane, sur le comportement hystérétique de mélanges standards à base de caoutchouc de butadiène - styrène et de caoutchouc naturel. Les paramètres E prime et tangente delta ont servi de critères d'évaluation. L'examen du module dynamique E prime révèle que l'équation de Guth-Gold modifiée ne peut plus être appliquée au-delà d'un certain taux de charge, ce qui est dû à la formation d'un réseau charge. Ce dernier est quantifié par Sf, paramètre qui peut être déterminé par chromatographie et qui représente le rapport entre les composantes dispersive et spécifique de l'énergie de surface d'une charge. L'étude des valeurs de tangente delta des noirs de carbone a permis de montrer que celles-ci dépendent tout d'abord de la formation d'un réseau charge. Puisque les valeurs de Sf de tous les noirs de carbone étudiés se situent au même niveau, c'est la distance entre les agrégats de noir de carbone qui détermine la tangente delta. Une comparaison de noirs de carbone et de silices, à densité de réticulation égale des mélanges caoutchoucs, montre que les silices confèrent des valeurs plus élevées de E prime et de tangente delta plus faibles par rapport aux noirs de carbone. Ce comportement différent relève des caractéristiques de surface différentes de ces deux types de charges
APA, Harvard, Vancouver, ISO, and other styles
47

Yadegari, Iraj. "Prédiction, inférence sélective et quelques problèmes connexes." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10167.

Full text
Abstract:
Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous proposons des estimateurs de densité prédictive efficaces en termes de pertes Kullback-Leibler et Hellinger (chapitre 3) améliorant les procédures de plug-in via une perte duale et via une d'expansion de variance. Enfin, nous présentons les résultats de l'amélioration de l'estimateur du maximum de vraisemblance (EMV) d'une moyenne normale bornée pour une classe de fonctions de perte, y compris la perte normale réfléchie, avec des implications pour l'estimation de densité prédictive. A savoir, nous donnons des conditions sur la perte et la largeur de l'espace paramétrique pour lesquels l'estimateur de Bayes par rapport à la loi a priori uniforme sur la frontière domine la EMV.
Abstract : We study the problem of point estimation and predictive density estimation of the mean of a selected population, obtaining novel developments which include bias analysis, decomposition of risk, and problems with restricted parameters (Chapter 2). We propose efficient predictive density estimators in terms of Kullback-Leibler and Hellinger losses (Chapter 3) improving on plug-in procedures via a dual loss and via a variance expansion scheme. Finally (Chapter 4), we present findings on improving on the maximum likelihood estimator (MLE) of a bounded normal mean under a class of loss functions, including reflected normal loss, with implications for predictive density estimation. Namely, we give conditions on the loss and the width of the parameter space for which the Bayes estimator with respect to the boundary uniform prior dominates the MLE.​
APA, Harvard, Vancouver, ISO, and other styles
48

Kawala, François. "Prédiction de l'activité dans les réseaux sociaux." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM021/document.

Full text
Abstract:
Cette étude est dédiée à un problème d’exploration de données dans les médias sociaux: la prédiction d’activité. Dans ce problème nous essayons de prédire l’activité associée à une thématique pour un horizon temporel restreint. Dans ce problème des contenus générés par différents utilisateurs, n’ayant pas de lien entre eux, contribuent à l’activité d’une même thématique.Afin de pouvoir définir et étudier la prédiction d’activité sans référence explicite à un réseau social existant, nous définissons un cadre d’analyse générique qui permet de décrire de nombreux médias sociaux. Trois définitions de la prédiction d’activité sont proposées. Premièrement la prédiction de la magnitude d’activité, un problème de régression qui vise à prédire l’activité exacte d’une thématique. Secondement, la prédiction de Buzz, un problème de classification binaire qui vise à prédire quelles thématiques subiront une augmentation soudaine d’activité. Enfin la prédiction du rang d’activité, un problème de learning-to-rank qui vise à prédire l’importance relative de chacune des thématiques. Ces trois problèmes sont étudiés avec les méthodes de l’état de l’art en apprentissage automatique. Les descripteurs proposés pour ces études sont définis en utilisant le cadre d’analyse générique. Ainsi il est facile d’adapter ces descripteurs à différent média sociaux.Notre capacité à prédire l’activité des thématiques est testée à l’aide d’un ensemble de données multilingue: Français, Anglais et Allemand. Les données ont été collecté durant 51 semaines sur Twitter et un forum de discussion. Plus de 500 millions de contenus générés par les utilisateurs ont été capturé. Une méthode de validation croisée est proposée afin de ne pas introduire de biais expérimental lié au temps. De plus, une méthode d’extraction non-supervisée des candidats au buzz est proposée. En effet, les changements abrupts de popularité sont rares et l’ensemble d’entraˆınement est très déséquilibré. Les problèmes de prédiction de l’activité sont étudiés dans deux configurations expérimentales différentes. La première configuration expérimentale porte sur l’ensemble des données collectées dans les deux médias sociaux, et sur les trois langues observées. La seconde configuration expérimentale porte exclusivement sur Twitter. Cette seconde configuration expérimentale vise à améliorer la reproductibilité de nos expériences. Pour ce faire, nous nous concentrons sur un sous-ensemble des thématiques non ambigu¨es en Anglais. En outre, nous limitons la durée des observations à dix semaines consécutives afin de limiter les risques de changement structurel dans les données observées
This dissertation is devoted to a social-media-mining problem named the activity-prediction problem. In this problem one aims to predict the number of user-generated-contents that will be created about a topic in the near future. The user-generated-contents that belong to a topic are not necessary related to each other.In order to study the activity-prediction problem without referring directly to a particular social-media, a generic framework is proposed. This generic framework allows to describe various social-media in a unified way. With this generic framework the activityprediction problem is defined independently of an actual social-media. Three examples are provided to illustrate how this generic framework describes social-media. Three defi- nitions of the activity-prediction problem are proposed. Firstly the magnitude prediction problem defines the activity-prediction as a regression problem. With this definition one aims to predict the exact activity of a topic. Secondly, the buzz classification problem defines the activity-prediction as a binary classification problem. With this definition one aims to predict if a topic will have an activity burst of a predefined amplitude. Thirdly the rank prediction problem defines the activity-prediction as a learning-to-rank problem. With this definition one aims to rank the topics accordingly to theirs future activity-levels. These three definitions of the activity prediction problem are tackled with state-of-the-art machine learning approaches applied to generic features. Indeed, these features are defined with the help of the generic framework. Therefore these features are easily adaptable to various social-media. There are two types of features. Firstly the features which describe a single topic. Secondly the features which describe the interplay between two topics.Our ability to predict the activity is tested against an industrial-size multilingual dataset. The data has been collected during 51 weeks. Two sources of data were used: Twitter and a bulletin-board-system. The collected data contains three languages: English, French and German. More than five hundred millions user-generated-contents were captured. Most of these user-generated-contents are related to computer hardware, video games, and mobile telephony. The data collection necessitated the implementation of a daily routine. The data was prepared so that commercial-contents and technical failure are not sources of noise. A cross-validation method that takes into account the time of observations is used. In addition an unsupervised method to extract buzz candidates is proposed. Indeed the training-sets are very ill-balanced for the buzz classification problem, and it is necessary to preselect buzz candidates. The activity-prediction problems are studied within two different experimental settings. The first experimental setting includes data from Twitter and the bulletin-board-system, on a long time-scale, and with three different languages. The second experimental setting is dedicated specifically to Twitter. This second experiment aims to increase the reproducibility of experiments as much as possible. Hence, this experimental setting includes user-generated-contents collected with respect to a list of unambiguous English terms. In addition the observation are restricted to ten consecutive weeks. Hence the risk of unannounced change in the public API of Twitter is minimized
APA, Harvard, Vancouver, ISO, and other styles
49

Sohm, Juliette. "Prédiction des déformations permanentes des matériaux bitumeux." Ecole centrale de Nantes, 2011. https://tel.archives-ouvertes.fr/tel-00907046.

Full text
Abstract:
Pour étudier les déformations permanentes des enrobés bitumineux, la division SMIT du LCPC a mis au point un essai triaxial thermorégulé à pression de confinement constante. Un important travail de mise au point de l’essai et de vérification des mesures a été réalisé. Une première campagne expérimentale, portant sur des essais de fluage à contrainte imposée, a permis d’étudier l’influence des paramètres pression de confinement, déviateur de contraintes et température sur le comportement des enrobés bitumineux sous chargement statique. Ces essais ont, de plus, permis de valider le principe d’équivalence temps température en grandes déformations, avec confinement. Un modèle élasto-visco-plastique, permettant de prendre en compte l’application d’une pression de confinement, a été développé pour simuler les essais de fluage. Son principe est basé sur les observations expérimentales. Les applications visées sont l’étude de structures bitumineuses telles que les plates-formes industrielles ou aires de stationnement. Une deuxième campagne d’essais de compression cyclique sinusoïdale a ensuite été menée. Lors de ces essais, on mesure : les déformations cycliques, de l’ordre de 10-4m/m, qui nous permettent d’obtenir des informations sur l’évolution de la rigidité du matériau (module complexe et coefficient de Poisson) et les déformations permanentes, de l’ordre de 10-2m/m, qui donnent des informations sur la résistance à l’orniérage. L’influence des paramètres pression de confinement, température et fréquence a été étudiée. Des différences importantes de comportement ont été mises en évidence entre les essais statiques et cycliques, liées à la variation cyclique des contraintes
In order to study permanent strains in bituminous mixtures, the division SMIT of LCPC has developed a thermo-controlled triaxial testing device at constant confining pressure. An important work of testing development and verification on measurement has been carried out. The first experimental testing programme, consisting in creep tests at constant stress, has allowed to study the respective influences of the confining pressure, the deviatoric stress and the temperature on the behaviour of our bituminous mixture. These tests have also allowed to validate partially the time-temperature superposition principle in the non-linear field, under triaxial stress. An elasto-visco-plastic model has been developed in order to simulate creep tests under confining pressure. This model aims at reproducing our experimental observations. These results may be applicable for aeronautic and storage bituminous platforms. A second experimental testing programme, consisting in cyclic sinusoidal compression tests has been performed. During these tests, two scales of strains have been measured: strains about 10-4m/m, related to the viscoelastic behaviour of asphalt concretes, and strains about 10-2m/m related to the appearance of permanent strains in asphalt concretes. The respective influences of the confining pressure, the temperature and the frequency have also been studied in this programme. Noteworthy differences in the behaviour of our asphalt concrete during creep tests and cyclic tests have been observed
APA, Harvard, Vancouver, ISO, and other styles
50

Gringoz, Florian. "Prédiction de la conformité géométrique d'assemblages aéronautiques." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN012.

Full text
Abstract:
La géométrie d'un assemblage est définie au travers de la géométrie de ses composants décrite dans la configuration nominale du produit, c'est à dire que les composants sont sans défauts et leurs positions relatives exactes. Dans la réalité, les géométries effectives des composants présentent des défauts géométriques, et leurs situations relatives ne sont pas exactes. Le travail doctoral consiste à prédire la conformité géométrique d'un assemblage aéronautique à partir des géométries de ses composants. A partir de la connaissance de la géométrie des composants avec défauts, une seconde étape vise à réaliser la simulation de l’assemblage de ces composants (propagation des défauts géométriques et couplage éléments finis) afin d’évaluer la conformité géométrique de l’assemblage, et en déduire les opérations à mener pour atteindre cette conformité. L’ensemble de la démarche sera appliqué à des nacelles aéronautiques
The assembly geometry is define through its components geometry described in their nominal configuration, in other words without geometrical deviations and with accurate relative positions. In fact, the real components geometries has geometrical deviations and their positions are not accurate. The doctoral work consists of predict the geometrical conformity of an aeronautical assembly from the geometries of its components. From knowledge of components geometry, a second step objective is to realise the simulation of assembly of this components (geometrical deviations propagation and finite elements coupling) in order to evaluate the geometrical conformity of the assembly, and to determinate the required operations in order to reach this conformity. The entire process will be applied on aeronautical nacelles
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography