Tesi sul tema "Analyse statistique de l'énergie"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Analyse statistique de l'énergie.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Analyse statistique de l'énergie".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Hanna, Pierre. "Modélisation statistique de sons bruités : étude de la densité spectrale, analyse, transformation musicale et synthèse". Bordeaux 1, 2003. http://www.theses.fr/2003BOR12756.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'ordinateur offre de nouvelles possibilités en terme de traitement du son. Les travaux de recherche actuels concernent essentiellement la modélisation des parties périodiques d'un signal. Les sons bruités sont pourtant de plus en plus employés lors de la composition musicale. Les modèles existants considèrent ces sons, ou leurs parties bruitées, comme du bruit blanc filtré. Cette hypothèse est mise en défaut par les études psychoacoustiques sur la perception de la densité spectrale des fréquences. Nous présentons un nouveau modèle spectral et statistique, appelé CNSS, basé sur le modèle des bruits thermiques. Un son bruité est défini par une somme fixe de sinusoi͏̈des. Le modèle CNSS propose de nouveaux contrôles liés aux distributions des fréquences et des phases des sinusoi͏̈des, et autorise ainsi de nouvelles transformations musicales. Une méthode d'analyse générale des sons bruités est envisagée. Nous décrivons une première méthode qui caractérise dans un spectre les partiels des composantes bruitées, en étudiant statistiquement les variations d'intensité. Une seconde méthode permet de défnir, sur l'échelle temporelle, les parties composées de transitoires, en étudiant la distribution des échantillons du signal. Enfin, nous détaillons une nouvelle technique qui permet d'approximer la densité spectrale. Les paramètres du modèle CNSS peuvent être ainsi estimés. Par la suit, les algorithmes de synthèse liés au modèle CNSS sont détaillés. De plus, les problèmes dus au recouvrement de fenêtres lors de la synthèse de sons aléatoires sont expliqués. Plusieurs solutions adéquates sont proposées. Une implémentation du modèle CNSS a été effectuée, permettant la synthèse en temps-réel de sons bruités. Cette implémentation est déstinée d'une part à être intégrée dans l'instrument d'éveil musical Dolabip développé au SCRIME, et d'autre part, à devenir une plateforme d'exploration sonore et un outil de synthèse pour les expériences psychoacoustiques.
2

Yélou, Clément. "Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transport". Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18285.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Gorecki, Christophe. "Classification par échantillonnage de la densité spectrale d'énergie : Application à l'étude statistique des surfaces et à l'analyse de particules". Besançon, 1989. http://www.theses.fr/1989BESA2015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Etude d'un profilometre optique base sur la defocalisation d'un faisceau de lumiere blanche. Etude de deux dispositifs optonumeriques d'analyse statistique utilisant les techniques de fourier optiques: un analyseur de particules et un dispositif de classement automatique des surfaces non polies
4

Salman, Hassan. "Le compte satellite de l'énergie : projet d'élaboration d'un système normalisé d'information statistique sur l'énergie". Paris 2, 1987. http://www.theses.fr/1987PA021048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un compte satellite est un instrument d'information statistique regroupant dans un systeme unique et coherent l'essentiel des flux et du patrimoine economiques interessant un domaine particulier. La methodologie des comptes satellites a ete developpee en france par l'insee dans le cadre de la comptabilite nationale. Il s'agit, dans le cadre de cette these, d'en appliquer les concepts et les methodes au domaine de l'energie tout en respectant les specificites de ce secteur, et ce afin de rationaliser l'information sur l'energie et de mieux suivre le domaine energetique en france. La demarche retenue consiste a delimiter le champ de l'energie, a definir des concepts et des nomenclatures portant sur les biens et les services lies a l'energie, a elaborer une structure d'analyse economique du domaine, puis a mettre en place des methodes de mesure des diferentes grandeurs retenues en valeur et en quantites physiques. Enfin, afin de tester la "faisabilite technique" de ce systeme, un chiffrement a ete effectue sur l'annee 1983, qui a permis de faire la part des themes pour lesquels l'information statistique est satisfaisante et de ceux ou des progres sont encore a accomplir
A satellite account is a statistical tool which objectives are to gather in a single, detailed and coherent system the main economic information concerning one particular domain, in terms of flows and stocks. The methodology of the satellite accounts has been developped in france by the institut national de la statistique et des etudes economiques (insee) in the general frame of the national accounts. The present study aims to apply the general concepts and methods to the french energy sector, respecting in the same time the specificities of this latter, in order to rationalize the information in the energy domain and allow a better economic analysis about it. To build the theoretical system, it is necessary to delimit the field of energy, define an appropriate terminology concerning energy goods and services, develop a structure for the economic analysis of the domain and finally implement methods of evaluation of the different elements considered, in physical and monetary terms. To test the technical practicability of the system, an evaluation has been made for the year 1983, making clear that for some elements the information is satisfactory and for others it is largely imperfect. . . When it exists
5

Miqueau, Valentin. "Fiabilité de la méthode de prédiction vibro-acoustique SEA dans un contexte d'évaluation subjective du confort acoustique automobile". Electronic Thesis or Diss., Lyon, INSA, 2023. http://www.theses.fr/2023ISAL0102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
À mesure que les habitacles des nouveaux véhicules deviennent de plus en plus silencieux, la qualité du son et le confort acoustique intérieurs se sont imposés comme des arguments de premier ordre pour les constructeurs automobiles afin de se démarquer de leurs concurrents. Actuellement, la recherche sur la perception sonore repose sur une approche expérimentale basée sur la réécoute, par des jurys, de signaux enregistrés sur des proto375 types. Pour éviter ces coûteux dispositifs, une approche numérique est ici envisagée. Les résultats d’un modèle basé sur la méthode SEA (Statistical Energy Analysis), développé par Saint-Gobain Research Compiègne, servirait à générer les signaux des expériences subjectives. Celui-ci permet d’ores et déjà de prédire l’impact de changement de vitrage sur le niveau sonore intérieur d’un véhicule exposé aux bruits environnementaux. En revanche, son emploi pour évaluer le confort automobile apporté par ces mêmes changements soulève plusieurs interrogations auxquelles nous répondons dans cette thèse : — Comment générer des signaux audios à partir des niveaux de pressions acoustiques prédits? — Les signaux obtenus permettent-ils de réaliser des études du confort acoustique dans l’habitacle avec la même efficacité que des enregistrements mesurés sur véhicule? Tout d’abord, un procédé de génération des signaux à partir des données obtenues grâce au modèle numérique a été proposé puis validé par une expérience perceptive. Ensuite, deux autres évaluations subjectives par un jury ont mis en lumière une évolution du désagrément ressenti similaire, pour plusieurs configurations de vitrages quelle que soit l’origine des sons (simulés ou mesurés). Elles ont cependant souligné une divergence dans les évaluations lors de l’introduction de verre trempé dans les configurations véhicule. Les joints de vitrage, absents du modèle, étaient alors suspectés d’être à l’origine de cette variation. Par la suite, l’examen expérimental du comportement vibro-acoustique des verres montés dans les joints a permis d’observer un apport de dissipation des joints. Celui- ci se traduisait alors par une augmentation de l’isolation acoustique du vitrage. Cette isolation caractérisant les vitrages dans le modèle, sa sensibilité aux apports de dissipation des joints de vitrage devait être intégrée dans notre approche numérique. Enfin, après avoir analysé les mécanismes de dissipation intervenant pour le vitrage et les joints, un modèle numérique basé sur la méthode éléments finis a été mis en place. Il prédit l’isolation acoustique du vitrage à intégrer dans le modèle numérique SEA pour tenir compte de l’effet des joints aux limites de l’échantillon de verre. Étant donné que la calibration du modèle à des moyennes et hautes fréquences est le fruit d’un processus empiriques de recherche de paramètres, il demeure essentiel de considérer une révision par de futurs travaux du modèle et de la méthode de recherche
As the cabins of new vehicles become increasingly silent, the sound quality and the acoustic comfort have become key arguments for car manufacturers to destinguish themselves from their competitors. Research on sound perception currently relies on an experimental approach involving juries listening to signals recorded on prototypes. To avoid the costs associated with these elaborate setups, a digital approach is proposed in the present work. The results of a model based on the SEA method (Statistical Energy Analysis), developed by Saint-Gobain Research Compiègne, would be used to generate the signals for subjective experiences. It is already used to predict the impact of glazing changes on the interior noise level of a vehicle exposed to environmental noise. However, its use to assess the automotive acoustic comfort brought about by these changes raises several questions, which we address in this thesis : — How should we generate audio signals from the predicted sound pressure level? — Can we use the obtained signals to evaluate acoustic comfort inside the car cabin with the same effectiveness as with recordings measured in the vehicle? Firstly, a signal generation process based on data obtained from the numerical model was proposed and then validated through a perceptual experiment. Next, two other subjective assessments by a panel of judges revealed a similar trend in the annoyance experienced, for several glazing configurations, regardless of the origin of the sounds (simulated or measured). They did, however, highlight a discrepancy in the assessments when tempered glazing was introduced into the vehicle configurations. The window seals, which were not included in the model, were suspected of being the cause of this variation. Subsequently, the experimental examination of the vibro-acoustic behavior of a flat glass installed in the window seals allowed us to observe a dissipation contribution from the seals. This resulted in an increase of the acoustic insulation of the glazing. As this insulation characterizes the glazing in the model, its sensitivity to the dissipation contribution of the seals had to be incorporated into our numerical approach. Finally, after analyzing the dissipation mechanisms for both the glazing and the seals, a numerical model based on the finite element method was implemented. It predicts the acoustic insulation of the glazing as it should be integrated into the SEA numerical model in order to take account of the effect of the joints at the boundaries of the glass sample. Given that the calibration of the model at mid-high frequencies is the result of an empirical parameter search process, it is essential to consider revising the model and search method in future work
6

Fitton, George. "Analyse multifractale et simulation des fluctuations de l'énergie éolienne". Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00962318.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
A partir des équations gouvernant le champ de vitesse, on peut non seulement s'attendre à un vent (fortement) non-gaussien, mais aussi à un vent présentant un comportement scalant. Par 'scalant' ou invariant d'échelle, nous faisons référence à un comportement statistique auto-similaire particulier; les cascades de tourbillons. Les multifractales stochastiques (avec des singularités et des co-dimensions multiples) reproduisent facilement le comportement scalant et les distributions de probabilités à queues épaisses omniprésentes dans le vent et dont la quantification est essentielle pour la communauté. Les quelques paramètres qui définissent ces modèles peuvent être déduits soit de considérations théoriques, soit de l'analyse statistique de données. Nous avons constaté que les approximations de flux basées sur le module du cisaillement du vent donnent des moments statistiques non-scalants et donc des estimations faussées des paramètres multifractals. La méthode DSF n'exige pas cette approximation et garantit un comportement scalant sur une certaine gamme d'échelles. Nous n'avons trouvé aucune estimation véritablement stable d'alpha en utilisant des méthodes standards. Ceci n'arrive plus quand nous optimisons localement (par la différenciation fractionnaire) le comportement scalant du DTM. Nous obtenons alors des estimations très stables de l'indice de multifractalité qui sont en outre en accord (alpha ≤ 2) avec des résultats publiés. Au contraire, les deux autres paramètres (C1 et H) deviennent des fonctions non-linéaires de l'ordre q des moments statistiques. Ces résultats suggèrent que le modèle UM isotrope ne peut être utilisé pour reproduire le cisaillement de vent dans la couche de surface atmosphérique. Lesdites hypothèses sont examinées en utilisant un repère tournant pour analyser l'anisotropie de la vitesse horizontale dans la couche de surface atmosphérique. Cela permet de quantifier la dépendance angulaire de l'exposant de Hurst. Les valeurs de cet exposant restent tout de même conformes aux résultats précédemment publiés. Pour des échelles de temps supérieures à quelques secondes, les deux jeux de données présentent une anisotropie scalante forte, qui décroît avec l'altitude. Nous mettons en évidence une expression analytique de la variation angulaire de l'exposant de Hurst, reposant sur les corrélations entre les composantes horizontales. Ceci pilote la formation des extrêmes du cisaillement, y compris dans le sillage d'une éolienne. Les cisaillements turbulents du vent sont si extrêmes que leur loi de probabilité est une loi de puissance. L'exposant correspondant (qD) est similaire pour les deux sites à une hauteur de 50m (4 ≤ qD ≤ 5), malgré des conditions orographiques très différentes. Nous discutons aussi de ses conséquences en analysant la stabilité de la couche limite atmosphérique et proposons une nouvelle méthode pour sa classification. Enfin, nous démontrons analytiquement que l'anisotropie augmente la probabilité des extrêmes. Ce résultat met en lumière un des nombreux mécanismes de turbulence possibles dans la couche de surface qui peut apparemment surproduire les cisaillements extrêmes du vent, s'ils sont étudiés dans le cadre des UM isotropes. Nous en analysons théoriquement les conséquences sur les estimations des paramètres multifractales par la méthode DTM. Les résultats analytiques obtenus sont en parfait accord avec les observations empiriques. Nous discutons alors de la prise en compte de toutes ces considérations pour faire des simulations multifractales des champs du vent dans la couche limite atmosphérique
7

Césari-Hékimian, Vartouhie. "Analyse des prix de l'énergie et incidence de la fiscalité". Paris 1, 1990. http://www.theses.fr/1990PA010014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Chapitre préliminaire : éléments quantitatifs sur la production et la consommation d’Energie par type d’énergie, dans le monde et en France depuis 1970. Première partie : analyse des prix de l’énergie et de leur évolution en France de 1970 à 1988. Introduction : théorie économique et prix de l’énergie. Chapitre préliminaire : éléments quantitatifs sur la production et la consommation d’énergie par type d'énergie, dans le monde et en France depuis 1970. Première partie : analyse des prix de l’énergie et de leur évolution en France de 1970 à 1988. Introduction : théorie économique et prix de l’énergie. Premier chapitre : formation des prix, en tenant compte des caractéristiques propres à chaque énergie. Second chapitre : étude chiffrée et analyse des prix de vente en France de chaque énergie et leur évolution - comparaison de l'évolution des prix de ventes des différentes énergies. Premier chapitre : formation des prix, en tenant compte des caractéristiques propres à chaque énergie. Second chapitre : étude chiffrée et analyse des prix de vente en France de chaque énergie et leur évolution - comparaison de l'évolution des prix de vente des différentes énergies. Seconde partie : étude de la fiscalité de l’énergie et de son évolution en France de 1970 à 1988. Introduction : quelques principes en matière de finances publiques, de budget, de fiscalité et d'impôt. Premier chapitre : étude exhaustive des différents prélèvements fiscaux et non fiscaux. Seconde partie : étude de la fiscalité de l’énergie et de son évolution en France de 1970 à 1988. Introduction : quelques principes en matière de finances publiques, de budget, de fiscalité et d'impôt. Premier chapitre : étude exhaustive des différents prélèvements fiscaux et non fiscaux sur l’énergie, à la fois de droit commun et spécifiques à l’énergie. Second chapitre : étude chiffrée et analyse de la fiscalité sur chaque énergie, en valeur absolue, à l'unité consommée et en valeur relative par rapport aux prix de vente unitaires des énergies et évolution de cette fiscalité - comparaison du poids de la fiscalité sur les prix des différentes énergies et son évolution. .
Preliminary chapter: quantitative elements of consumption and production of energy by energy type, in the world and in France since 1970. Part one: analysis of energy prices in France from 1970 to 1988. Introduction : economic theory and energy prices. Chapter one: pricing as a function of the specific characteristics of each energy preliminary chapter : quantitative elements of consumption and production of energy by energy type, in the world and in France since 1970. Part one : analysis of energy prices in France from 1970 t 1988. Introduction : economic theory and energy prices. Chapter one : princing as a function of the specific characteristics of each energy type. Second chapter: study of the selling price of each type of energy and its evolution comparaison of the evolution of all energy prices. Part two: study of energy taxes in france from 1970 to 1988. Introduction : some economic principles concerning financial and budgetary matters type. Second chapter : study of the selling price of each type of energy and its evolution comparaison of the evolution of all energy prices. Part two : study of energy taxes in France from 1970 to 1988. Introduction : some ecnomic principles concerning financial and budgetary matters and taxation. First chapter: different types of energy, whether specific to energy or not. Second chapter: analysis of taxes specifically levied on energy (taxes on production and taxes on consumption) : their amount per unit consumed and their level with respect to the price of each type of energy and, their evolution - comparison of the and taxation. First chapter : different types of taxes on energy, whether specific to energy or not. Second chapter : analysis of taxes specifically levied on energy (taxes on production and taxes on consumption) : their amount per unit consumed and their level with respect to the price of each type of energy and, their evolution - comparison of the evolution of taxation on the different energy types. Evolution of taxation on the different energy types
8

Jourdan-Marias, Astrid. "Analyse statistique et échantillonage d'expériences simulées". Pau, 2000. http://www.theses.fr/2000PAUU1014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nombreux phénomènes physiques sont étudiés à l'aide de simulateurs très complexes et coûteux. Bien souvent, l'utilisateur souhaite alors disposer d'un modèle simple et rapide afin de résumer la réponse du simulateur. Il est alors nécessaire de construire un prédicteur de la réponse du code informatique à partir d'un petit nombre de simulations, que l'on appelle encore expérience simulées. A l'heure actuelle il existe 2 principales approches statistiques des expériences simulées, l'une est basée sur un modèle spatial adapté du modèle géo-statistique de krigeage, et l'autre est basée sur des techniques d'échantillonage. Chacune d'elle présente des avantages mais aussi des inconvénients. Ce travail propose une nouvelle approche statistique plus performante des exprériences simulées qui intègre les points forts des 2 approches existantes, i, e. . .
9

Mahé, Cédric. "Analyse statistique de delais d'evenement correles". Paris 7, 1998. http://www.theses.fr/1998PA077254.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les delais d'evenement correles sont frequemment observes dans les etudes longitudinales lorsque plus d'un evenement peut survenir chez un individu ou lorsqu'un evenement survient chez des individus regroupes en cluster. La prise en compte de la dependance entre les delais d'evenements de la meme unite statistique (l'individu ou le cluster) est necessaire pour une estimation precise et non biaisee de l'effet des covariables sur le risque d'evenement. Pour les evenements non ordonnes, un modele combinant deux generalisations multivariees du modele de cox a ete developpe afin d'estimer un effet moyen des covariables sur le risque d'evenement ainsi que la force de correlation au sein de l'unite statistique. Ce modele a ensuite ete applique a une etude de cohorte expose-non expose. Pour les evenements ordonnes (recurrents), l'apport des methodes qui prennent en compte la correlation des delais a ete presente de facon didactique. D'autre part, dans le cadre des approches multivariees, le choix de la mesure de reponse adequate a ete discute selon la structure des donnees. L'extension de ces methodes a un critere de jugement combinant les deux types d'evenements ordonnes et non ordonnes necessite des developpements ulterieurs.
10

Cigana, John. "Analyse statistique de sensibilité du modèle SANCHO". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38667.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Célimène, Fred. "Analyse statistique et économétrique des DOM-TOM". Paris 10, 1985. http://www.theses.fr/1985PA100002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation". Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)
This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
13

Goulard, Michel. "Champs spatiaux et statistique multidimensionnelle". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376138909.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Médout-Marère, Vincent. "Une analyse thermodynamique et spectroscopique de l'énergie de surface des solides divisés". Montpellier 2, 1999. http://www.theses.fr/1999MON20007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mesure par differentes techniques (angle de contact, calorimetrie d'immersion, calorimetrie a ecoulement de liquides, adsorption de molecules tensioactives) des contributions hydrophiles / hydrophobes de la surface des solides divises montre l'influence determinante de l'energie de surface. Deux approches ont ete developpees dans la litterature et sont couramment utilisees dans l'etude physico-chimique des interfaces, afin d'obtenir ce parametre a partir de mesures d'angle de contact de liquides purs sur des solides. La premiere approche, le modele de van oss, chaudhury et good, utilise une decomposition de l'energie de surface en differentes contributions energetiques. La seconde approche, due a neumann, interprete ces mesures d'angles par une equation d'etat. Nous montrons dans ce travail les contradictions existantes entre ces deux approches, et proposons a partir d'un raisonnement thermodynamique simple un modele plus generalise. Ce nouveau modele nous permet d'obtenir l'energie de surface de solides divises a partir de mesures d'enthalpies d'immersion dans differents liquides purs. L'application de ce modele a une montmorillonite, argile gonflante, a differents taux d'hydratation, montre qu'il est compatible avec une variation de l'aire specifique, ce qui n'etait pas le cas avec les modeles precedents. L'energie de surface est ainsi analysee en terme d'heterogeneite des interactions a l'interface solide. Mais l'energie de surface est fondamentalement heterogene a l'echelle microscopique. L'etude de cette heterogeneite necessite l'usage de nouvelles spectroscopies capables d'analyser la surface en terme d'energies de sites. La mesure des courants de depolarisation thermiquement stimules (tsdc), apparait comme une technique performante. L'interpretation des mesures obtenues sur des argiles est fondee sur la methode d'egalisation des electronegativites. Elle met en evidence une heterogeneite des sites d'adsorption constitues de l'association d'un cation d'echange avec des cavites a base d'atomes d'oxygene. Ces mesures effectuees a differents taux d'hydratation, nous permettent d'etablir un lien quantitatif entre ces energies mesurees par tsdc et des enthalpies d'adsorption mesures par calorimetrie.
15

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules". Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
16

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS". Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
17

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps". Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00139887.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d'étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés.
Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes.
D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation.
18

Guillaume, Jean-Loup. "Analyse statistique et modélisation des grands réseaux d'interactions". Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00011377.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude des grands réseaux d'interactions, ou réseaux rencontrés dans des contextes pratiques, vise à expliquer les interactions entre les différents individus d'un réseau par l'étude des grandes lois le gouvernant et à comprendre les divers phénomènes pouvant se produire sur ces réseaux. Cette thèse, divisée en trois parties, est consacrée à l'étude de ces réseaux.
La première partie est centrée sur l'analyse des réseaux et fait un point critique sur les réseaux étudiés et les paramètres introduits pour mieux comprendre leur structure. Un certain nombre de ces paramètres sont partagés par la majorité des réseaux étudiés et justifient l'étude de ceux-ci de manière globale.
La seconde partie qui constitue le coeur de cette thèse s'attache à la modélisation des grands réseaux d'interactions, c'est-à-dire la construction de graphes artificiels semblables à ceux rencontrés en pratique. Ceci passe tout d'abord par la présentation des modèles existants puis par l'introduction d'un modèle basé sur certaines propriétés non triviales qui est suffisamment simple pour que l'on puisse l'étudier formellement ses propriétés et malgré tout réaliste.
Enfin, la troisième partie est purement méthodologique. Elle permet de présenter la mise en pratique des parties précédentes et l'apport qui en découle en se basant sur trois cas particuliers : une étude des échanges dans un réseau pair-à-pair, une étude de la robustesse des réseaux aux pannes et aux attaques et enfin un ensemble de simulations visant à estimer la qualité des cartes de l'Internet actuellement utilisées.
Cette thèse met en lumière la nécessité de poursuivre les travaux sur les grands réseaux d'interactions et pointe plusieurs pistes prometteuses, notamment sur l'étude plus fine des réseaux, que ce soit de manière pondérée ou dynamique. Mais aussi sur la nécessité d'étudier de nombreux problèmes liés à la métrologie des réseaux pour réussir à capturer leur structure de manière plus précise.
19

Duvernet, Laurent. "Analyse statistique des processus de marche aléatoire multifractale". Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00567397.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On étudie certaines propriétés d'une classe de processus aléatoires réels à temps continu, les marches aléatoires multifractales. Une particularité remarquable de ces processus tient en leur propriété d'autosimilarité : la loi du processus à petite échelle est identique à celle à grande échelle moyennant un facteur aléatoire multiplicatif indépendant du processus. La première partie de la thèse se consacre à la question de la convergence du moment empirique de l'accroissement du processus dans une asymptotique assez générale, où le pas de l'accroissement peut tendre vers zéro en même temps que l'horizon d'observation tend vers l'infini. La deuxième partie propose une famille de tests non-paramétriques qui distinguent entre marches aléatoires multifractales et semi-martingales d'Itô. Après avoir montré la consistance de ces tests, on étudie leur comportement sur des données simulées. On construit dans la troisième partie un processus de marche aléatoire multifractale asymétrique tel que l'accroissement passé soit négativement corrélé avec le carré de l'accroissement futur. Ce type d'effet levier est notamment observé sur les prix d'actions et d'indices financiers. On compare les propriétés empiriques du processus obtenu avec des données réelles. La quatrième partie concerne l'estimation des paramètres du processus. On commence par montrer que sous certaines conditions, deux des trois paramètres ne peuvent être estimés. On étudie ensuite les performances théoriques et empiriques de différents estimateurs du troisième paramètre, le coefficient d'intermittence, dans un cas gaussien
20

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps". Nantes, 2007. http://www.theses.fr/2007NANT2007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d’étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés. Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes. D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation
Sensory analysis of food products is most often based on scores given by panellists according to a list of descriptors that characterize the products. A statistical method for analyzing sensory profiling data obtained by means of fixed vocabulary is discussed. It consists in a procedure for weighted averaging the data sets associated with the assessors taking account of the extent to which these assessors agree with the general point of view. The method of analysis also provides an overall index of the performance of the panel and performance indices associated with the various assessors. In conventional sensory profiling, the evaluation focuses on an overall assessment and does not reflect the dynamic process of the sensory perception in the course of time. This is the reason why Time Intensity (TI) curves are becoming more and more popular notwithstanding the poor performance of the assessors and the tricky statistical issues these curves pose. In particular, a common feature of the TI curves is that each assessor tends to generate a characteristic shape, called 'subject signature'. The functional approach adopted herein is specifically based on the identification and the correction of the 'signature' effect of the assessors by adjusting the individual curves. The cornerstones of the method are the use of the projection upon a B-spline basis and alignment procedures. Other sensory analysis over time exist such as the study of the decay of organoleptic perception of the products. We propose to use Markov chains and Hidden Markov chains to model this decay and focus on the graphical comparison of the evolution of several products
21

Garoche, Pierre-Loïc. "Analyse statistique d'un calcul d'acteurs par interprétation abstraite". Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000629/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le modèle des Acteurs, introduit par Hewitt et Agha à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par Colaço, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage. Par ailleurs, des travaux plus récents, effectués par Venet puis Feret, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus. Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par Feret, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits. [. . . ]
The Actor model, introduced by Hewitt and Agha in the late 80s, describes a concurrent communicating system as a set of autonomous agents, with non uniform interfaces and communicating by the use of labeled messages. The CAP process calculus, proposed by Colaço, is based on this model and allows to describe non trivial realistic systems, without the need of complex encodings. CAP is a higher-order calculus: messages can carry actor behaviors. Multiple works address the analysis of CAP properties, mainly by the use of inference-based type systems using behavioral types and sub-typing. Otherwise, more recent works, by Venet and later Feret, propose the use of abstract interpretation to analyze process calculi. These approaches allow to compute non-uniform properties. For example, they are able to differentiate recursive instances of the same thread. This thesis is at the crossroad of these two approaches, applying abstract interpretation to the analysis of CAP. Following the framework of Feret, CAP is firstly expressed in a non standard form, easing its analysis. The set of reachable states is then over-approximated via a sound by construction representation within existing abstract domains. [. . . ]
22

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques". Lyon 1, 1987. http://www.theses.fr/1987LYO19034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une description statistique des regions des genomes codant pour les proteines (les "parties codantes") est presentee. La methodologie utilise a la fois une modelisation de l'information et des outils de description. Les schemas entite-association constituent un outil de representation des relations logiques entre des jets biologiques. La description des sequences a utilise essentiellement des methodes multivariees et des statistiques non parametriques. Ces analyses montrent l'existence de biais importants dans l'usage du code ainsi que dans certaines relations de voisinage entre bases. Ces biais peuvent s'interpreter, au moins en partie, comme resultant de contraintes liees aux differents processus moleculaires auxquels participent ces sequences. Chez e. Coli, le processus de traduction a ete clairement mis en cause. Une repercussion de ces contraintes sont la nature de la proteine codee a pu etre mise en evidence dans plusieurs cas. L'observation de biais tres differents dans des sequences homologues (en particulier mitochondrial) a permis de discuter de la stationnarite du processus evolutif
23

Dupuis, Jérôme. "Analyse statistique bayesienne de modèles de capture-recapture". Paris 6, 1995. http://www.theses.fr/1995PA066077.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le modele statistique de base que nous considerons, consiste en n realisations simultanees et i. I. D. D'un processus d'interet ramene a une chaine de markov, avec donnees manquantes, non homogene, a espace d'etat fini comportant un unique etat absorbant. Alors que l'estimateur du maximum de vraisemblance est actuellement disponible l'analyse statistique bayesienne de ce modele de capture-recapture n'a pas encore ete abordee. L'estimation bayesienne des probabilites de survie et de mouvement du modele de base est realisee via l'algorithme de gibbs. Des conditions suffisantes de convergence de l'algorithme sont etablies. Puis nous developpons des tests afin d'apprehender les differentes sources d'heterogeneite (temporelle, individuelle et environnementale) du phenomene biologique represente par la chaine de markov. Le test d'homogeneite temporelle que nous construisons formule la question d'interet en terme de divergence acceptable entre la chaine initiale et sa projection (au sens de la distance de kullback) sur l'espace des chaines de markov homogenes. Nous developpons ensuite des tests formules en terme d'independance conditionnelle permettant de mettre en evidence un effet differe d'un processus auxiliaire (variable aleatoire discrete environnementale ou individuelle, dependant ou non du temps) sur le processus d'interet. Enfin, pour la premiere fois en capture-recapture, une situation de non-independance des comportements migratoires est envisagee. Nous considerons une structure de dependance de nature unilaterale qui permet de rendre compte d'un eventuel effet guide en dynamique des populations animales
24

Larrere, Guy. "Contribution à l'étude asymptotique en analyse statistique multivariée". Pau, 1994. http://www.theses.fr/1994PAUU3026.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est composé de cinq articles qui se répartissent en deux parties. On considère d'abord l'étude asymptotique des éléments propres associés à la valeur propre limite nulle en analyse canonique linéaire. Les lois limites sont complètement explicitées et permettent de généraliser le test de Bartlett de nullité des derniers coefficients canoniques. On montre ensuite que les résultats sont radicalement différents en analyse en composantes principales. Dans ce cas, on obtient, à partir d'une certaine taille d'échantillon et de l'analyse par échantillonnage, les éléments propres associés à la valeur propre limite zéro. Ces résultats sont obtenus sans faire d'hypothèses sur les lois des variables étudiées. La seconde partie est consacrée à l'étude asymptotique des modèles structurels. On réalise d'abord l'étude asymptotique du modèle structurel usuel dans le cadre de l'estimation selon les moindres carres des paramètres du modèle. On propose ensuite un modèle structurel mixte qui permet de généraliser les modèles fonctionnels et structurels usuels. On réalise l'étude asymptotique de ce modèle.
25

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes". Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène
We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
26

Douspis, Marian. "Analyse statistique des anisotropies du fond diffus cosmologique". Toulouse 3, 2000. http://www.theses.fr/2000TOU30185.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Elqasyr, Khadija. "Modélisation et analyse statistique des plans d’expérience séquentiels". Rouen, 2008. http://www.theses.fr/2008ROUES023.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle ``Play-The-Winner''. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle "Play-The-Winner randomisée'' ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle ''Play-The-Winner'', nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables
Two distinct sections constitute this thesis. The first part concerns the study of sequential experimental designs applied to clinical trials. We study the modelling of these designs. We develop a generalization of the `` Play-The-Winner'' rule. Theoretical and numerical results show that these designs perform better than the designs recently developed, in the framework of the Freedman's urn models, which are a generalization of the ''randomized play-the-winner'' rule or of a modifiedversion of this rule. In the second part, we develop inference methods for analyszing the data from the considered sequential designs. In the case of two treatments, and for ''play-the-winner'' rule, we made explicit the sampling distributions and their factorial moments. We derive frequentist inference procedures (tests and conditional confidence intervals) and Bayesian methods for these designs. In the Bayesian framework, for a family of appropriate priors we found the posterior distributions and the credible intervals about the relevant parameters, and the predictive distributions. The link between conditional tests and Bayesian procedures is made explicit. The Bayesian methods are generalized to cover more complex plans (several treatments and delayed responses). Non informative Bayesian procedures are remarkable frequentist properties
28

Romefort, Dominique Villedieu. "Analyse statistique des circuits intégrès : caractérisation des modèles". Toulouse 3, 1990. http://www.theses.fr/1990TOU30087.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail presente porte sur l'analyse statistique des circuits integres (c. I. ) et plus particulierement sur la caracterisation des modeles statistiques, ceux-ci n'etant pas disponibles pour les composants des c. I. La caracterisation d'un modele statistique peut etre realisee a partir de la connaissance des parametres physiques directement issus du processus de fabrication, mais cette approche est limitee aux fabricants qui seuls disposent des informations necessaires. Une autre voie consiste a utiliser la mesure des performances sur un lot de composants: la methode proposee ici consiste alors a ajuster le modele sur chaque composant individuel; on obtient ainsi une base de parametres du modele, a partir de laquelle on determine la valeur moyenne et l'ecart-type de chaque parametre variable. Cette methode est principalement basee sur une optimisation parametrique, dont la solution peut dependre etroitement des algorithmes, des calculateurs et des valeurs de depart ainsi que de la qualite de la base de mesures et de l'adequation du modele. Les experimentations realisees ont montre la difficulte a obtenir un modele statistique fiable, liee aux differents points critiques cites ci-dessus, l'une des contraintes fondamentales etant de garantir l'univocite entre les mesures et les parametres du modele. Un protocole de caracterisation complet et original a ete elabore; il garantit la validite d'un modele representatif si toutes les etapes en sont franchies avec succes, et permet de tirer des conclusions objectives en cas d'insuffisance sur un des points critiques
29

Kollia, Aikaterini. "Analyse statistique de la diversité en anthropometrie tridimensionnelle". Thesis, Lyon, 2016. http://www.theses.fr/2016EMSE0812.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’anthropométrie est le domaine scientifique qui étudie les dimensions du corps humain. La complexité de la morphologie du corps nécessite une analyse 3D, aujourd’hui permise par les progrès des scanners 3D. L’objectif de cette étude est de comparer les populations et utiliser les résultats pour mieux adapter les produits sportifs à la morphologie des utilisateurs. Des campagnes de mensuration 3D ont été réalisées et des algorithmes de traitement automatique ont été créés pour analyser les nuages de points des sujets scannés. Basés sur les méthodes d’images et de géométrie, ces algorithmes repèrent des points anatomiques, calculent des mesures 1D, alignent les sujets scannés et créent des modèles anthropométriques 3D représentatifs des populations. Pour analyser les caractéristiques anthropométriques, des statistiques de premier ordre et factorielles ont été adaptées pour être utilisées dans l’espace 3D. Les méthodes ont été appliquées à trois parties : le pied, la tête et la poitrine. Les différences morphologiques entre les populations, mais également au sein d’une population donnée, ont été révélées. Par exemple, la différence à chaque point de la tête entre des têtes a été calculée. Les statistiques en trois dimensions ont aussi permis de mettre en évidence l’asymétrie de la tête. La méthode de création de modèles anthropométriques est plus adaptée à nos applications que les méthodes dans la littérature. L’analyse en trois dimensions permet d’obtenir des résultats qui ne sont pas visibles par les analyses 1D. Les connaissances acquises par cette étude sont utilisées pour la conception de différents produits vendus dans les magasins DECATHLON à travers le monde
Anthropometry is the scientific field that studies human body dimensions (from the greek άνθρωπος (human) + μέτρον (measure)). Anthropometrical analysis is based actually on 1D measurements (head circumference, length, etc). However, the body’s morphological complexity requires 3D analysis. This is possible due to recent progress of 3D scanners. The objective of this study is to compare population’s anthropometry and use results to adapt sporting goods to user’s morphology. For this purpose, 3D worldwide measurement campaigns were realized and automated treatment algorithms were created in order to analyze the subjects’ point cloud. Based on image processing methods and on shape geometry, these algorithms detect anatomical landmarks, calculate 1D measurements, align subjects and create representative anthropometrical 3D models. In order to analyze morphological characteristics, different statistical methods including components’ analysis, were adapted for use in 3D space. The methods were applied in three body parts: the foot, the head and the bust. The morphological differences between and inside the populations were studied. For example, the difference in each point of the head, between Chinese and European head, was calculated. The statistics in three dimensions, permitted also to show the asymmetry of the head. The method to create anthropometrical models is more adapted to our applications than the methods used in the literature. The analysis in three dimensions, can give results that they are not visible from 1D analyses. The knowledge of this thesis is used for the conception of different products that they are sold in DECATHLON stores around the world
30

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605346q.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Aubert, Julie. "Analyse statistique de données biologiques à haut débit". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique
The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
32

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques". Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
33

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques". Electronic Thesis or Diss., Sorbonne Paris Cité, 2015. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=1017&f=2491.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
34

Gerville-Réache, Léo. "Analyse statistique de modèles probabilistes appliqués aux processus sociaux". Bordeaux 1, 1998. http://www.theses.fr/1998BOR10606.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les domaines d'application de la statistique mathématique sont de plus en plus nombreux ainsi que les méthodes d'analyse mises en oeuvre. Motivé, tant par des collaborations effectives que par des considérations théoriques, ce travail est construit autour de sept thèmes. Le premier chapitre regroupe trois études. Les loteries et plus particulièrement le loto, souvent donné comme exemple en combinatoire, est l'objet d'une étude basée sur plus d'une année de résultats. Une collaboration avec des chercheurs de l'institut d'oenologie nous a conduit à étudier le pouvoir prédictif de la concentration de substances chimiques sur l'âge de vins de porto. Enfin, avec la complicité du gan de Bordeaux, nous avons analysé le modèle de Makeham et construit un test d'ajustement du khi-deux pour une hypothèse simple et composée. Le deuxième chapitre présente les deux outils d'expertise sociale que nous avons mis en place à la caf de la gironde. Basé sur l'adaptation des chaines de Markov et de la régression logistique à l'analyse quantitative des risques sociaux, le premier outil est informatique. Le problème de la pondération d'experts pour une prise de décision optimale fait l'objet, dans une optique qualitative, du deuxième outil. Le troisième chapitre compare les estimations paramétriques et non paramétriques de la fonction de fiabilité du modèle standard de vie accélérée. L'étude des propriétés asymptotiques des estimateurs paramétriques ainsi que leurs simulations numériques ont été réalisées. Le dernier chapitre reprend le problème de l'estimation d'une fonction observée en addition avec un bruit stationnaire. A l'aide de techniques de projection, nous établissons, entre autre, une nouvelle condition suffisante d'optimalité de l'estimateur des moindres carrés.
35

Gonzalez, Ignacio Baccini Alain Leon José. "Analyse canonique régularisée pour des données fortement multidimensionnelles". Toulouse (Université Paul Sabatier, Toulouse 3), 2008. http://thesesups.ups-tlse.fr/99.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Boisjoli, Mark. "Etude de l'énergie de symétrie dans les collisions 40,48CA+40,48CA À 35 MEV/A". Caen, 2013. http://www.theses.fr/2013CAEN2093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le terme d'énergie de symétrie (Csym) contenu à l'intérieur de l'équation d'état de la matière nucléaire est étudié via l'isoscaling et les formes des distributions isotopiques pour les réactions 40,48Ca+40,48Ca à une énergie incidente de 35 MeV/A. Les collisions périphériques et semi-périphériques sont étudiées. Un couplage entre deux appareils expérimentaux, le spectromètre VAMOS et le multidétecteur INDRA, a été fait. VAMOS a permis de mesurer la charge et la masse des résidus d'évaporation du quasi-projectile (PLF) avec grande précision. Les particules légères chargées ont été mesurées simultanément avec INDRA, permettant d’estimer le paramètre d’impact et l’énergie d’excitation ainsi que de reconstruire le fragment primaire, parent du PLF. L'étude des PLF montre la présence d'un effet pair-impair associé aux effets de désintégrations secondaires. L'extraction d'une information concernant Csym par l'étude des PLF, dans le cadre de cette thèse, est donc difficile, d'où la nécessité de reconstruire le fragment primaire. En étudiant les fragments primaires reconstruits, nous observons une évolution du paramètre Csym/T en fonction de la charge. Cette évolution est attribuée au degré d'excitation des fragments. De plus, la forme des distributions globales de Csym/T nous permet d'extraire le rapport des contributions de surface et de volume à l'énergie de symétrie. Ces rapports nous montrent des effets de surface importants, appuyés par les calculs théoriques. A partir des températures extraites par les spectres en énergie des protons, une valeur de Csym est extraite. Ces valeurs, autour de 30 MeV, sont cohérentes avec des valeurs autour de la densité de saturation
Symmetry term (Csym) inside the nuclear equation of state is studied with the help of the isoscaling parameters and the isotopic distributions widths for 40,48Ca+40,48Ca reactions at an incident energy of 35 MeV/A. Peripheral et semi-peripheral collisions are studied. A coupling between two experimental setups, VAMOS spectrometer and INDRA multidetector was done. VAMOS was able to measure the charge and mass of the projectile like fragment (PLF) with a high precision. Light charged particles were measured in coincidence with INDRA, and they give us an impact parameter and excitation energy estimations They are also used in the primary fragment reconstruction, which are the PLF parent. PLF study shows the presence of an important odd-even effect, which can be associated to the secondary decay effects. The extracted values of the symmetry energy term directly from the PLF are not reliable. Therefore, it is necessary to reconstruct the primary fragment in order to take into account the secondary decay effects. By studying primary fragments, we observe an evolution of the parameter Csym/T as a function of the charge. This evolution is attributed to the fragment excitation energy. Also, global distributions of Csym/T give us an information on the surface over the volume contributions to the symmetry energy ratio. Those ratios show important surface contributions, same results given by simulations. With extracted temperatures from proton energy spectra, a Csym value can be obtained. Those values, around 30 MeV, are coherent with values around the saturation density
37

Salem, André. "Méthodes de la statistique textuelle". Paris 3, 1993. http://www.theses.fr/1994PA030010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
A l'intersection de plusieurs disciplines, méthodes de la statistique textuelle présente un bilan de recherches consacre a l'étude statistique du vocabulaire. Le premier volume est consacre a la définition des unités textuelles, a la présentation et a l'adaptation au domaine des études textuelles de plusieurs méthodes d'analyse statistique ainsi qu'a l'application de ces méthodes a différents domaines de recherche utilisant le texte. Un même ensemble de méthodes lexico métriques permet, malgré la diversité des domaines abordés, de mettre en évidence des contrastes dans la ventilation des formes et des segments qui trouvent des interprétations pertinentes pour chacun des corpus soumis à comparaison. Les études réalisées sur des séries textuelles chronologiques mettent en évidence l'importance d'un même phénomène lie à l'évolution d'ensemble du vocabulaire au fil du temps. La prise en compte de la variable temps permet de mieux caractériser les périodes ou les groupes de périodes successives, en fonction du vocabulaire qu'elles emploient. Des coefficients calculés a partir des sous-fréquences de chacune des unités textuelles (formes et segments répétés du corpus) permettent de mettre en rapport les périodisations empiriques obtenues sur la base de l'analyse chronologique du stock lexical avec les découpages a priori, réalisés a partir des dates importantes autour desquelles le corpus a été réuni
Methods for textual statistics, a multidisciplinary work, presents a critical overview of statistical studies on vocabulary. The first part is devoted to the definition of textual units and to the adaptation of a set of statistical methods (mainly multidimensional statistical methods) to textual studies. That set of lexicometric methods has also been used in various fields dealing with textual data. Beyond the diversity of the domains, lexicometrical methods reveal contrasts between distributions of forms and repeated segments throughout the texts. Those contrasts found pertinent interpretation in each case. Numerous studies performed over chronological textual series show the importance of a same phenomenon: qualitative and quantitative evolution of the vocabulary as time goes by. Taking into account time-variable leads to a better characterization of the successive time periods, or groups of periods, based upon the vocabulary they use. Coefficients calculated on the basis of the distribution of textual units (forms and repeated segments) through the different periods of the corpus, lead to compare the empirical periodizations resulting from chronological analysis of the lexical amount with a priori periodizations based on important dates of the period covered by the corpus
38

Pascot, Caroline. "Analyse électro-thermique multi-échelles des supercondensateurs au carbone pour le stockage de l'énergie". Nantes, 2009. http://www.theses.fr/2009NANT2077.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux concernent l'analyse électro-thermique des supercondensateurs au carbone utilisés pour le stockage d'énergie électrique dans le domaine du transport. La dissipation d'énergie produite lors de la charge et de la décharge de ces systèmes est à l'origine d'une élévation de la température de fonctionnement qui limite les performances et la sécurité. Cette étude a conduit à l'élaboration de modèles décrivant les processus de diffusion de charges et de chaleur au sein de structures poreuses imprégnées d'électrolyte. Plusieurs échelles ont été considérées : celle des matériaux de cellules élémentaires et celle d'éléments formés de l'assemblage de cellules. Un dispositif calorimétrique original a par ailleurs été développé afin de déterminer la puissance dissipée par des cellules sous cyclage. Différentes résistances électriques, à l'origine des échauffements observés, ont pu être identifiées en fonction de la vitesse de charge, de la fréquence du cyclage et de la température. Ceci a permis d'établir une loi donnant les puissances et les rendements énergétiques en fonction des caractéristiques des matériaux et de l'électrolyte. De surcroît, des simulations réalisées sur des éléments de supercondensateurs ont permis de mettre en évidence qu'une hétérogénéité thermique pouvait être à l'origine d'une répartition de charges non uniforme. Des circuits thermiques équivalents, caractéristiques d'éléments de supercondensateurs, ont été par ailleurs conçus. Ces circuits permettent d'effectuer des analyses électro-thermiques à l'échelle de modules que les approches numériques classiques ne permettent pas de réaliser
This work deals with electro-thermal analysis of supercapacitors for energy storage applications. Nowadays, there is a demand for producing cells offering suitable performance at high charge rates over a wide temperature range and power dissipation remains one of the key factors affecting safety and reliability. Electro thermal investigations have been performed on carbon supercapacitor cells and devices both by measurements and modelling. A calorimetric technique was developed for measuring the power dissipated by unit cells under cycling by analysing transient temperature change. Power density was found as a function of the charge rate over a wide current range for different temperature. Results were compared with estimations obtained with AC-DC impedance techniques and potential cell properties. Different electro thermal modelling strategies were developed both for cells and complex devices. Thermal circuits have been especially constructed for analysing electrothermal coupled problems. Finally, the experimental and modelling approaches contribute to a better understanding of electro thermal performance of supercapacitors
39

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN". Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
40

Vatsiou, Alexandra. "Analyse de génétique statistique en utilisant des données pangénomiques". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS002/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les phénotypes complexes observés dans les populations humaines contemporaines sont déterminés par la génétique, ainsi que par des facteurs environnementaux. Par exemple, la nutrition et les modes de vie jouent un rôle important dans le développement de maladies multifactorielles, comme l'obésité ou le diabète. L'adaptation sur de tels traits phénotypiques complexes survient généralement sous la forme de modification des fréquences alléliques à de multiple locus, un phénomène nommé sélection polygénique. Les avancées récentes des méthodes statistiques, ainsi que l'émergence des données issues du séquençage haut-débit permettent dorénavant la détection de ces signaux. Ici, nous visons à comprendre à quel point des changements environnementaux peuvent entraîner des modifications dans les pressions sélectives, ainsi que leurs impacts sur la sensibilité aux maladies. Dans ce but, nous proposons une analyse d'enrichissement en groupes de gènes (GSEA, Gene Set Enrichment Analysis) en utilisant des données de scores de sélection sur du polymorphisme nucléotidique (SNP, Single Nucleotide Polymorphism), pour quantifier la pression de sélection sur ces SNP (qui pourrait issus par exemple de méthodes de scan génomique). D'abord, nous effectuons une analyse de sensibilité des méthodes de scan génomique pour examiner leur exactitude. Nous utilisons une analyse par simulation pour étudier leurs performances sous un large éventail de scénarios démographiques complexes et des hypothèses de balayage sélectif fort (hard sweep) ou faible (soft sweep). Ensuite, nous développons SEL-GSEA, un outil utilisant des données de SNP pour identifier des voies biochimiques enrichies en pressions sélectives. Enfin, dans l'optique d'examiner les effets de potentiels changements environnementaux qui pourraient représenter des changements dans les pressions sélectives, nous utilisons SEL-GSEA et Gowinda (un outil disponible en ligne) lors d'une étude population-centrée. Nous analysons trois différentes populations (africains, européens et asiatiques) de la base de données HapMap. Pour obtenir les scores de sélection des SNP qui servent de base à SEL-GSEA, nous utilisons une combinaison de deux méthodes (iHS et XP-CLR) qui sont les plus performantes dans notre analyse de sensibilité. Les résultats de notre analyse montrent une forte pression de sélection sur les voies biochimiques liées à l'immunité, principalement en Afrique, ainsi que sur la glycolyse et la néoglucogenèse en Europe, qui sont des voies liées au métabolisme et au diabète
The complex phenotypes observed nowadays in human populations are determined by genetic as well as environmental factors. For example, nutrition and lifestyle play important roles in the development of multifactorial diseases such as obesity and diabetes. Adaptation on such complex phenotypic traits may occur via allele frequency shifts at multiple loci, a phenomenon known as polygenic selection. Recent advances in statistical approaches and the emergence of high throughput Next Generation Sequencing data has enabled the detection of such signals. Here we aim to understand the extent to which environmental changes lead to shifts in selective pressures as well as the impact of those on disease susceptibility. To achieve that, we propose a gene set enrichment analysis using SNP selection scores that are simply scores that quantify the selection pressure on SNPs and they could be derived from genome-scan methods. Initially we carry out a sensitivity analysis to investigate which of the recent genome-scan methods identify accurately the selected region. A simulation approach was used to assess their performance under a wide range of complex demographic structures under both hard and soft selective sweeps. Then, we develop SEL-GSEA, a tool to identify pathways enriched for evolutionary pressures, which is based on SNP data. Finally, to examine the effect of potential environmental changes that could represent changes in selection pressures, we apply SEL-GSEA as well as Gowinda, an available online tool, on a population-based study. We analyzed three populations (Africans, Europeans and Asians) from the HapMap database. To acquire the SNP selection scores that are the basis for SEL-GSEA, we used a combination of two genome scan methods (iHS and XPCLR) that performed the best in our sensitivity analysis. The results of our analysis show extensive selection pressures on immune related pathways mainly in Africa population as well as on the glycolysis and gluconeogenesis pathway in Europeans, which is related to metabolism and diabetes
41

Meddeb, Ali. "Analyse théorique et statistique du phénomène de l'émergence financière". Montpellier 1, 1999. http://www.theses.fr/1999MON10031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un des faits, marquant la scene financiere de cette fin de millenaire, est l'apparition d'un certain nombre de pays en developpement dotes de marches boursiers tres dynamique a rendement eleve, appeles: << marches emergents >>. Toutefois, l'origine de l'apparition de cette nouvelle classe de pays est sujet a nombreuses controverses. Cette these tente d'apporter quelques elements de reponse a cette confusion conceptuelle en donnant une nouvelle vision de l'<< emergence financiere >>. Pour ce faire, la technique utilisee consiste a detecter le ou les facteurs qui ont ete a l'origine de la naissance de ce phenomene, afin d'etablir une typologie d'un echantillon compose de plusieurs pays.
42

Zabalza-Mezghani, Isabelle. "Analyse statistique et planification d'expérience en ingénierie de réservoir". Pau, 2000. http://www.theses.fr/2000PAUU3009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La première partie de cette thèse a pour but la prévision de réponses en production simulées, lorsqu'elles sont influencées par des paramètres contrôlables ou non-contrôlables. La spécificité de notre travail réside dans l'étude d'un paramètre non-contrôlable : le germe géostatistique, qui induit un contexte hétéroscédastique. De ce fait, le recours à une modélisation de la moyenne et de la variance de la réponse s'est avéré essentiel lors de la prédiction. Nous avons proposé deux intervalles de prédiction, l'un faisant appel au reéhantillonnage bootstrap, l'autre non, qui ont fourni d'excellentes prédictions. Un autre objectif de cette première partie était l'utilisation des gradients de la réponse pour améliorer la prédiction. Grâce à une méthode de prédiction bayésienne traitant conjointement réponse et gradients, nous avons mis en évidence l'apport significatif des gradients. Dans la seconde partie de la thèse, consacrée au calage des données dynamiques, l'originalité de notre approche réside dans le recours aux plans d'expérience. Ce problème de calibration d'un modèle de simulation en fonction des données dynamiques revient en fait à minimiser une fonction objectif. Le comportement non-linéaire de la fonction objectif ne pouvant être approché par un polynome, nous avons proposé de coupler la méthode simplex, qui permet de localiser un domaine sur lequel une approximation polynomiale est fondée, à la méthode des plans d'expérience qui permet de construire un modèle analytique de la fonction objectif. Une minimisation de ce modèle fournit alors les valeurs des paramètres qui restituent les données dynamiques. Cette méthodologie met en évidence l'intérêt des plans d'expérience pour le calage, en particulier lorsque les méthodes d'optimisation sont inadaptées du fait d'une non-différentiabilité, comme lors de la mise à jour des modèles géostatistiques discrets. Diverses applications à des cas de gisement illustrent d'ailleurs l'efficacité des méthodes proposées.
43

Marchaland, Catherine. "Analyse statistique d'un tableau de notes : comparaisons d'analyses factorielles". Paris 5, 1987. http://www.theses.fr/1987PA05H123.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail présente quelques comparaisons de méthodes d'analyse factorielle dans le cas particulier de l'étude d'un tableau de notes. La partie portant sur les aspects théoriques comporte trois chapitres. Dans le premier nous procédons à des rappels sur les méthodes classiques d'analyse factorielle : analyse en composantes principales et analyse des correspondances. Dans le deuxième chapitre nous présentons les perturbations que subissent les valeurs propres et les sous espaces invariants d'un endomorphisme symétrique quand on lui ajoute un endomorphisme symétrique ou quand on le premultiplie par un endomorphisme symétrique défini positif. Dans le troisième chapitre, après avoir défini l'équivalence de deux analyses, on procède à quatre comparaisons. La première permet d'établir l'équivalence de l'analyse des correspondances sur un tableau dédouble en 0 et 1, et de l'analyse en composantes principales du tableau non dédouble. La deuxième comparaison concerne l'analyse en composantes principales faite sur la matrice des corrélations et celle faite sur la matrice des covariances. La troisième comparaison permet d'établir l'équivalence entre l'analyse des correspondances d'un tableau de notes dédouble et l'analyse en composantes principales sur la matrice des covariances. Dans la quatrième comparaison on étudie l'influence de la modification des éléments diagonaux d'une matrice lors d'une analyse en composantes principales. La deuxième partie de ce travail se compose d'une illustration de ces comparaisons sur des données physiologiques et d'une ouverture sur d'autres analyses qui constituent des prolongements intéressants a ces méthodes d'analyse factorielle : les méthodes des échelles multidimensionnelles et le modèle lisrel.
44

Colin, Pascal. "Analyse statistique d'images de fluorescence dans des jets diphasiques". Rouen, 1998. http://www.theses.fr/1998ROUES069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La nature quantitative, en terme de concentration locale, de la fluorescence induite par laser a permis de réaliser des études statistiques des images dans la zone de développement proche de l'injecteur de jets diphasiques coaxiaux avec ou sans combustion. Quand elle est superieure a trois diamètres d'injection, la longueur du dard liquide est gouvernée par le rapport des pressions dynamiques entre le gaz et le liquide injectes. Cependant l'étude de l'aire interfaciale du dard et l'examen des champs de vitesse instantanés du liquide montrent l'existence d'un régime avec troncature du dard. La fraction volumique et la probabilité de présence de liquide ont été analysées selon un schéma simplifié où le spray est localement décrit comme un réseau régulier de gouttes sphériques identiques. A Weber d'injection constant, la taille et la densité de ces gouttes équivalentes évoluent spatialement de façon très différentes selon la vitesse d'injection du liquide. Une technique originale a permis de mesurer de façon cumulative la PDF de la fraction volumique de liquide en tout point de l'écoulement : la distribution obtenue comporte en deux pics d'intermittence encadrant une fraction turbulente continue. Dans le cas où l'atomisation est véritablement gouvernée par l'écoulement gazeux, la fraction turbulente du spectre prend rapidement du poids et elle peut être décrite par une simple fonction d’Arrhenius à un paramètre local unique. Un simple changement de variable met en évidence la forme canonique de cette distribution et l'application des principes généraux de la physique statistique fournit le nombre de degrés de liberté des éléments du spray en tous points du champ. Cette approche prometteuse ne demande aucune hypothèse sur la forme des éléments liquides et il semble que la variable réduite utilisée soit directement reliée à l'énergie potentielle d'interaction des éléments par l'intermédiaire de la densité d'interface. La fluorescence de l'oxygène chaud induite par une nappe laser UV dans le banc cryogénique mascotte alimente en GH 2/LOx, nous a fourni des images instantanées de la surface réactive de combustion non prémélangée. Une analyse de cette surface en terme de probabilité de présence, de taux plissement et de courbure locale est proposé afin de confronter aux modèles de combustion turbulente à chimie rapide.
45

Jaunâtre, Kévin. "Analyse et modélisation statistique de données de consommation électrique". Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
46

Huang, Weibing. "Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066525/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre
This thesis is made of two connected parts, the first one about limit order book modeling and the second one about tick value effects. In the first part, we present our framework for Markovian order book modeling. The queue-reactive model is first introduced, in which we revise the traditional zero-intelligence approach by adding state dependency in the order arrival processes. An empirical study shows that this model is very realistic and reproduces many interesting microscopic features of the underlying asset such as the distribution of the order book. We also demonstrate that it can be used as an efficient market simulator, allowing for the assessment of complex placement tactics. We then extend the queue-reactive model to a general Markovian framework for order book modeling. Ergodicity conditions are discussed in details in this setting. Under some rather weak assumptions, we prove the convergence of the order book state towards an invariant distribution and that of the rescaled price process to a standard Brownian motion. In the second part of this thesis, we are interested in studying the role played by the tick value at both microscopic and macroscopic scales. First, an empirical study of the consequences of a tick value change is conducted using data from the 2014 Japanese tick size reduction pilot program. A prediction formula for the effects of a tick value change on the trading costs is derived and successfully tested. Then, an agent-based model is introduced in order to explain the relationships between market volume, price dynamics, bid-ask spread, tick value and the equilibrium order book state
47

Zreik, Rawya. "Analyse statistique des réseaux et applications aux sciences humaines". Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E061/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis les travaux précurseurs de Moreno (1934), l’analyse des réseaux est devenue une discipline forte, qui ne se limite plus à la sociologie et qui est à présent appliquée à des domaines très variés tels que la biologie, la géographie ou l’histoire. L’intérêt croissant pour l’analyse des réseaux s’explique d’une part par la forte présence de ce type de données dans le monde numérique d’aujourd’hui et, d’autre part, par les progrès récents dans la modélisation et le traitement de ces données. En effet, informaticiens et statisticiens ont porté leurs efforts depuis plus d’une dizaine d’années sur ces données de type réseau en proposant des nombreuses techniques permettant leur analyse. Parmi ces techniques on note les méthodes de clustering qui permettent en particulier de découvrir une structure en groupes cachés dans le réseau. De nombreux facteurs peuvent exercer une influence sur la structure d’un réseau ou rendre les analyses plus faciles à comprendre. Parmi ceux-ci, on trouve deux facteurs importants: le facteur du temps, et le contexte du réseau. Le premier implique l’évolution des connexions entre les nœuds au cours du temps. Le contexte du réseau peut alors être caractérisé par différents types d’informations, par exemple des messages texte (courrier électronique, tweets, Facebook, messages, etc.) échangés entre des nœuds, des informations catégoriques sur les nœuds (âge, sexe, passe-temps, Les fréquences d’interaction (par exemple, le nombre de courriels envoyés ou les commentaires affichés), et ainsi de suite. La prise en considération de ces facteurs nous permet de capturer de plus en plus d’informations complexes et cachées à partir des données. L’objectif de ma thèse été de définir des nouveaux modèles de graphes aléatoires qui prennent en compte les deux facteurs mentionnés ci-dessus, afin de développer l’analyse de la structure du réseau et permettre l’extraction de l’information cachée à partir des données. Ces modèles visent à regrouper les sommets d’un réseau en fonction de leurs profils de connexion et structures de réseau, qui sont statiques ou évoluant dynamiquement au cours du temps. Le point de départ de ces travaux est le modèle de bloc stochastique (SBM). Il s’agit d’un modèle de mélange pour les graphiques qui ont été initialement développés en sciences sociales. Il suppose que les sommets d’un réseau sont répartis sur différentes classes, de sorte que la probabilité d’une arête entre deux sommets ne dépend que des classes auxquelles ils appartiennent
Over the last two decades, network structure analysis has experienced rapid growth with its construction and its intervention in many fields, such as: communication networks, financial transaction networks, gene regulatory networks, disease transmission networks, mobile telephone networks. Social networks are now commonly used to represent the interactions between groups of people; for instance, ourselves, our professional colleagues, our friends and family, are often part of online networks, such as Facebook, Twitter, email. In a network, many factors can exert influence or make analyses easier to understand. Among these, we find two important ones: the time factor, and the network context. The former involves the evolution of connections between nodes over time. The network context can then be characterized by different types of information such as text messages (email, tweets, Facebook, posts, etc.) exchanged between nodes, categorical information on the nodes (age, gender, hobbies, status, etc.), interaction frequencies (e.g., number of emails sent or comments posted), and so on. Taking into consideration these factors can lead to the capture of increasingly complex and hidden information from the data. The aim of this thesis is to define new models for graphs which take into consideration the two factors mentioned above, in order to develop the analysis of network structure and allow extraction of the hidden information from the data. These models aim at clustering the vertices of a network depending on their connection profiles and network structures, which are either static or dynamically evolving. The starting point of this work is the stochastic block model, or SBM. This is a mixture model for graphs which was originally developed in social sciences. It assumes that the vertices of a network are spread over different classes, so that the probability of an edge between two vertices only depends on the classes they belong to
48

Guerineau, Lise. "Analyse statistique de modèles de fiabilité en environnement dynamique". Lorient, 2013. http://www.theses.fr/2013LORIS297.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous décrivons des modèles permettant d’étudier la fiabilité du réseau électrique sous l’influence de l’environnement dynamique dans lequel il évolue. Notre approche repose sur l’observation du réseau et s’appuie sur une modélisation probabiliste et statistique de l’occurrence des pannes. Elle s’appuie sur la loi exponentielle par morceaux, loi particulièrement adaptée, par sa flexibilité, à la représentation des durées de bon fonctionnement dans un environnement perturbé. Nous étudions les propriétés de cette loi ainsi que l’inférence suivant la nature de l’observation. Des modèles reliant la fiabilité des composants aux contraintes auxquelles ils sont soumis et reposant sur l’hypothèse d’une distribution exponentielle par morceaux sont proposés. Les estimateurs du maximum de vraisemblance sont obtenus sur des données simulées et sur des données réelles. Nous modélisons ensuite, par des processus stochastiques, la fiabilité d’un système multi-composants qui présente la particularité d’évoluer en fonction des maintenances correctives opérées. Des méthodes d’estimation adaptées à différents types d’observation du système sont présentées. Etant confrontés à une situation de données incomplètes, nous sommes conduits à envisager un algorithme EM pour mener l’inférence. Des versions stochastiques de cet algorithme sont envisagées pour faire face aux phénomènes d’explosions combinatoires qui peuvent limiter l’efficacité de l’algorithme EM. Des exemples numériques viennent illustrer les procédures que nous proposons
We propose models which integrate time varying stresses for assessing reliability of the electrical network. Our approach is based on the network observation and consists of statistical and probabilistic modelling of failure occurrence. The great flexibility allowed by the piecewise exponential distribution makes it appropriate to model time-to-failure of a component under varying environmental conditions. We study properties of this distribution and make statistical inference for different observation schemes. Models relating components reliability with environmental constraints, and relying on the piecewise exponential distribution, are proposed. The maximum likelihood is assessed on both simulated and real data sets. Then, we consider a multi-component system whose evolution is linked with the corrective maintenance performed. Reliability of this system can be described using stochastic processes. We present inference methods according to the nature of the observation. Discrete observation can be formulated in terms of missing data; the EM algorithm is used to reach estimates in this situation. Stochastic versions of this algorithm have been considered to overcome a possible combinatorial explosion preventing from the EM algorithm implementation. Numerical examples are presented for the proposed algorithms
49

Hernandez, Freddy. "Fluctuations à l'équilibre d'un modèle stochastique non gradient qui conserve l'énergie". Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090029.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En cette thèse nous étudions le champ de fluctuations à l'équilibre de l'énergie d'un modèle non gradient réversible. Nous établissons la convergence en loi vers un processus d'Ornstein-Uhlenbeck généralisé. En adaptant la méthode non gradient introduite par S. R. S Varadhan, nous identifions le terme de diffusion, ce qui nous permet de déduire le principe de Boltzmann-Gibbs. Ceci est le point essentiel pour montrer que les lois fini dimensionnelles du champ de fluctuations, convergent vers les lois fini dimensionnelles d'un processus généralisé d'Ornstein-Uhlenbeck. De plus, en utilisant à nouveau le principe de Boltzmann-Gibbs nous obtenons aussi la tension du champ de fluctuations de l'énergie dans un certain espace de Sobolev, ce qui avec la convergence des lois fini dimensionnelles implique la convergence en loi vers le processus généralisé d'Ornstein-Uhlenbeck (mentionné ci-dessus). Le fait que la quantité conservée n'est soit pas une forme linéaire des coordonnées du système, introduit des difficultés supplémentaires de nature géométrique lors de l'application de la méthode non gradient de Varadhan
In this thesis we study the equilibrium energy fluctuation field of a one-dimensional reversible non gradient model. We prove that the limit fluctuation process is governed by a generalized Ornstein-Uhlenbeck process. By adapting the non gradient method introduced by S. R. S Varadhan, we identify the correct diffusion term, which allows us to derive the Boltzmann-Gibbs principle. This is the key point to show that the energy fluctuation field converges in the sense of finite dimensional distributions to a generalized Ornstein-Uhlenbeck process. Moreover, using again the Boltzmann-Gibbs principle we also prove tightness for the energy fluctuation field in a specified Sobolev space, which together with the finite dimensional convergence implies the convergence in distribution to the generalized Ornstein-Uhlenbeck process mentioned above. The fact that the conserved quantity is not a linear functional of the coordinates of the system, introduces new difficulties of geometric nature in applying Varadhan's non gradient method
50

Ibbou, Smaïl. "Classification, analyse des correspondances et methodes neuronales". Paris 1, 1998. http://www.theses.fr/1998PA010020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail traite des contributions que peuvent apporter les techniques neuronales au domaine de l'analyse des données et plus particulièrement a la classification et à l'analyse des correspondances. Ce document peut être découpé en trois parties : - La première partie aborde le problème complexe du choix du nombre pertinent de classes à retenir dans une classification de données. Pour cela, nous étudions un algorithme de fusion de données dans rd propose par Y. F Wong en 1993. La méthode se base sur la minimisation de l'énergie libre qui est souvent utilisée en mécanique statistique. Nous apportons une formalisation rigoureuse du problème ainsi que l'étude complète de l'algorithme dans le cas ou D est égal à un. - La seconde partie est consacrée à l'utilisation de l'algorithme de Kohonen dans le cas de données incomplètes. Nous proposons l'adaptation de la méthode ainsi qu'une étude empirique sur la robustesse de l'algorithme de Kohonen face aux données manquantes. L'étude empirique est menée sur des exemples simulés et réels en regardant d'une part les désorganisations du réseau et d'autre part en mesurant des erreurs ad hoc. On définit également une méthode d'estimation des données manquantes. - Dans la troisième partie on présente deux méthodes originales pour le traitement des variables qualitatives via l'algorithme de Kohonen. Baptisées kacm 1 et kacm II, ces deux algorithmes permettent de réaliser l'analogue d'une analyse des correspondances multiples en classant les modalités des variables et les individus sur une même carte de Kohonen.

Vai alla bibliografia