Dissertations / Theses on the topic 'Statistique du nombre'

To see the other types of publications on this topic, follow the link: Statistique du nombre.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Statistique du nombre.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fillatre, Lionel. "Détection et localisation d'anomalies à partir d'un nombre limité de projections tomographiques." Troyes, 2004. http://www.theses.fr/2004TROY0020.

Full text
Abstract:
La détection d’anomalies à partir de quelques projections tomographiques bruitées est considérée d’un point de vue statistique. L’objet de l’étude concerne la conception de tests d’hypothèses optimaux pour détecter des anomalies au sein d’un environnement bidimensionnel, ou tridimensionnel, déterministe inconnu considéré comme un paramètre de nuisance. Pour contrebalancer le manque de données, une approche paramétrique basée sur un paramétrage linéaire parcimonieux de l’environnement est proposé. Dans un premier temps, un test binaire invariant optimal est construit pour détecter une anomalie quelconque en éliminant l’environnement. Suite à cette élimination, les anomalies peuvent être fortement dégradées et plusieurs résultats originaux sont proposés pour assurer leur détectabilité. Dans un second temps, une règle originale de localisation est proposée pour détecter et localiser simultanément une anomalie de taille limitée en l’absence de paramètres de nuisance. En présence d’un environnement inconnu, les qualités statistiques du test sont dégradées mais, si le nombre de mesures par projection est suffisamment élevé, cette dégradation devient négligeable. Enfin, les développements théoriques sont confirmés numériquement sur des données réelles issues du contrôle-qualité de pièces industrielles. Bien que l’environnement soit désormais décrit par un modèle non-linéaire en regard des paramètres de nuisance, les propriétés d’optimalité attendues du test employé restent valables
The problem of anomaly detection in a linearly parameterized environment from a few number of noisy projections has been stated as a composite hypotheses testing problem. An unknown two-dimensional, or three-dimensional, scene composed of an environment, considered as a nuisance parameter, with a possibly hidden anomaly is studied. To counterbalance the lack of observations, a parametric-based approach, which describes the partly unknown environment by using a linear parametric parsimonious model, is proposed. First, an invariant binary test is designed to detect a non-specified anomaly by eliminating the environment. However, anomalies can be hidden by the environment and erased by this elimination. Several new results are proposed to warrant their detectability with respect to specific assumptions on the environment. Next, a new decision rule is proposed to detect and localize a size-limited anomaly without nuisance parameters. When an unknown environment is present, the statistical qualities of the test are modified but this loss of optimality becomes negligible as the number of measurements by projections becomes arbitrarily large. Finally, the theoretical developments are confirmed by many numerical experiments. The validity of the methods is studied on real data resulting from the non-destructive testing of solid rocket motors. A new measurement model, which is non-linear with respect to nuisance parameters, is proposed. The curvature of this model is relatively small and the awaited properties of optimality of the test are confirmed
APA, Harvard, Vancouver, ISO, and other styles
2

Oukili, Ahmed. "Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S109/document.

Full text
Abstract:
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes)
The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT)
APA, Harvard, Vancouver, ISO, and other styles
3

El, Matouat Abdelaziz. "Sélection du nombre de paramètres d'un modèle comparaison avec le critère d'Akaike." Rouen, 1987. http://www.theses.fr/1987ROUES054.

Full text
Abstract:
Dans ce travail, nous considérons une structure statistique (Oméga, A, f(thêta) sur laquelle nous disposons de n observations, et nous étudions, dans un premier temps, le critère d'Akaike pour une structure gaussienne. Ce critère permet lorsque l'échantillon est de taille n de définir un ordre k optimal plus petit que m, nombre de paramètres du modèle correct. L'ordre k, fonction de n, doit être suffisamment petit afin de faire apparaître une redondance statistique lors de l'estimation des k paramètres. Ensuite, pour tout thêta de I ensemble quelconque d'indices, soit f(thêta) une densité de Probabilité par rapport à une probabilité mu représentant la connaissance a priori. Les probabilités sont définies sur une tribu A provenant d'une partition finie M de oméga. Nous sommes alors amenés à modifier la fonction de perte en utilisant la distance de Hellinger. Le critère original présenté permet de définir la densité estimée. Comme des densités de probabilité interviennent, leur estimation est améliorée en utilisant la méthode du noyau ce qui conduit à une seconde modification du critère d'Akaike. Les résultats antérieurs sont appliqués à la déterminantion des paramètres p, q d'un modèle ARMA. Au préalable, l'utilisation du modèle interne fournit l'estimateur du maximum de vraisemblance pour les coefficients du modèle ARMA lorsque les paramètres p, q sont connus.
APA, Harvard, Vancouver, ISO, and other styles
4

Coiffet, Francois. "Etude statistique du champ de pression à proximité des jets axisymétriques turbulents à haut nombre de Reynolds." Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00144345.

Full text
Abstract:
Le champ proche des jets est une zone où cohabitent des contributions de pression de nature hydrodynamique et acoustique. Leurs caractéristiques sont méconnues, conduisant à une définition controversée des frontières de cette région ainsi qu'à l'impossibilité d'y prédire les niveaux de pression effectivement rencontrés. Cette zone présente un fort intérêt pour l'étude de la dynamique du jet ainsi que pour celle du rôle que peuvent jouer les structures cohérentes dans les mécanismes de génération de bruit aéroacoustique. L'étude présentée ici porte sur un jet subsonique, de nombre de Mach Mj=0,3, et un jet supersonique, Mj=1,4. Elle s'appuie sur des mesures acoustiques en champs proche et lointain ainsi que des mesures de pression champ proche synchrones à des mesures de vitesse dans l'écoulement par vélocimétrie laser à effet Doppler (LDV). Une interaction forte entre les deux contributions de pression est mise en évidence par des pertes de cohérence importantes. Ce phénomène, dont un modèle est proposé, permet de définir précisément la frontière du champ proche par le produit du nombre d'onde et de la position radiale kr=1,3. L'analyse par décomposition orthogonale aux valeurs propres (POD), sur la base de laquelle est également proposée une méthode de normalisation des données, montre le caractère très cohérent du champ de pression proche à basse fréquence ainsi que l'importance de la prise en compte des contributions azimutales. Une séparation des contributions hydrodynamique et acoustique de pression est obtenue grâce à un filtrage POD. La champ de pression instantanée est déterminé sur une surface entourant le jet grâce à une extension au domaine spectral de l'estimation stochastique linéaire (LSE). Ces données sont utilisées pour estimer le rayonnement acoustique du jet par une formulation intégrale de Kirchhoff ainsi que pour extraire la structuration tridimensionnelle de l'écoulement.
APA, Harvard, Vancouver, ISO, and other styles
5

Coiffet, François. "Etude statistique du champ de pression à proximité des jets axisymétriques turbulents à haut nombre de Reynolds." Poitiers, 2006. http://www.theses.fr/2006POIT2345.

Full text
Abstract:
Le champ proche des jets est une zone où cohabitent des contributions de pression de nature hydrodynamique et acoustique. Leurs caractéristiques sont méconnues, conduisant à une définition controversée des frontières de cette région ainsi qu'à l'impossibilité d'y prédire les niveaux de pression effectivement rencontrés. Cette zone présente un fort intérêt pour l'étude de la dynamique du jet ainsi que pour celle du rôle que peuvent jouer les structures cohérentes dans les mécanismes de génération de bruit aéroacoustique. L'étude présentée ici porte sur un jet subsonique, de nombre de Mach Mj=0,3, et un jet supersonique, Mj=1,4. Elle s'appuie sur des mesures acoustiques en champs proche et lointain ainsi que des mesures de pression champ proche synchrones à des mesures de vitesse dans l'écoulement par vélocimétrie laser à effet Doppler (LDV). Une interaction forte entre les deux contributions de pression est mise en évidence par des pertes de cohérence importantes. Ce phénomène, dont un modèle est proposé, permet de définir précisément la frontière du champ proche par le produit du nombre d'onde et de la position radiale kr=1,3. L'analyse par décomposition orthogonale aux valeurs propres (POD), sur la base de laquelle est également proposée une méthode de normalisation des données, montre le caractère très cohérent du champ de pression proche à basse fréquence ainsi que l'importance de la prise en compte des contributions azimutales. Une séparation des contributions hydrodynamique et acoustique de pression est obtenue grâce à un filtrage POD. La champ de pression instantanée est déterminé sur une surface entourant le jet grâce à une extension au domaine spectral de l'estimation stochastique linéaire (LSE). Ces données sont utilisées pour estimer le rayonnement acoustique du jet par une formulation intégrale de Kirchhoff ainsi que pour extraire la structuration tridimensionnelle de l'écoulement.
APA, Harvard, Vancouver, ISO, and other styles
6

Couris, Chantal Marie. "Les bases de données médico-administratives hospitalières comme source d'information permanente pour l'épidémiologie descriptive du cancer : méthodes d'estimation et de correction du nombre de cancers du sein incidents à l'hôpital." Lyon 1, 2001. http://www.theses.fr/2001LYO1T234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Illayk, Abbas. "Évolution du nombre de composants en panne pour un système réparable non-Markovien." Lille 1, 2003. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/8a4c0b86-722d-4ea2-8464-13200e65618f.

Full text
Abstract:
Longtemps on a utilisé la loi exponentielle pour modéliser les durées de réparations. Bien que mal adaptée cette méthode donne souvent des bons résultats. En fait, dans la pratique ces durées sont plutôt déterministes. L'utilisation d'une hypothèse de vieillissement pour les durées de réparations est donc naturelle. Nous faisons le point sur la théorie du vieillissement à partir des notions d'ordre stochastique et en particulier on montre que certaines classes récemment introduites sont inutiles. Ensuite, un test d'hypothèse est fait pour tester l'exponentialité d'une variable aléatoire contre la loi vieillissante NBU, sur la base d'une inégalité de moment d'un système série de variables aléatoires vieillissantes, on montre que notre test est asymptotiquement consistant et efficace. Le calcul de la fiabilité et de la disponibilité d'un système réparable est lié essentiellement à la probabilité des séquences de panne ne comportant aucune réparation réussie (séquences dites monotones selon Solovyev). De nombreux travaux ont pour but l'encadrement de cette probabilité. Nous proposons ici d'affiner ces encadrements à partir d'une minoration analytique et des hypothèses générales de vieillissement DMRL ou NBUE. Cette étude est étendue au cas parallèle et même plus généralement aux systèmes cohérents. Enfin on mesure l'erreur de l'approximation de la fiabilité du système par une loi exponentielle.
APA, Harvard, Vancouver, ISO, and other styles
8

Neuvial, Pierre. "Contributions à l'analyse statistique des données de puces à ADN." Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00433045.

Full text
Abstract:
Cette thèse traite de questions statistiques soulevées par l'analyse de données génomiques de grande dimension, dans le cadre de la recherche contre le cancer. La première partie est consacrée à l'étude des propriétés asymptotiques de procédures de tests multiples visant à contrôler l'espérance (FDR) du taux de fausses découvertes (FDP) parmi les hypothèses rejetées. On introduit un formalisme flexible qui permet de calculer la loi asymptotique du FDP et les conditions de régularité associées pour une vaste famille de procédures de tests multiples, et de comparer la puissance de ces procédures. On s'intéresse ensuite aux liens en termes de contrôle du FDR entre les bornes intrinsèques à trois problèmes de tests multiples: la détection, l'estimation, et la sélection. On relie en particulier la vitesse de convergence dans le problème d'estimation à la régularité de la loi des probabilités critiques au voisinage de 1. La seconde partie est dédiée au développement de méthodes d'analyse des données de puces à ADN en cancérologie. On propose une méthode de pré-traitement des données de puces à ADN combinant une régression robuste et un modèle de mélange avec contrainte spatiale, qui permet d'éliminer les biais spatiaux en préservant le signal biologique. On développe ensuite une méthode d'inférence de régulations entre gènes à partir de données d'expression de gènes, qui repose sur des techniques d'apprentissage informatique et de tests multiples. Enfin, on construit un test génomique permettant de déterminer, pour une patiente traitée pour un cancer du sein, si un second cancer survenant sur le même sein est ou non une récidive du premier.
APA, Harvard, Vancouver, ISO, and other styles
9

Loyau, Hugues. "Etude numérique et modélisation algébrique des phénomènes d'anisotropie en turbulence statistique." Rouen, 1996. http://www.theses.fr/1996ROUES067.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur l'étude et la modélisation en turbulence anisotrope. L'étude se divise en deux parties concernant respectivement le développement théorique de modèles algébriques anisotropes, ainsi que la mise en œuvre de ces modèles dans le cas d'écoulements cisaillés simples. Le premier chapitre définit le cadre de l'étude en présentant une revue bibliographique des modélisations concernées. Le second chapitre rappelle les équations de base utilisées pour la résolution numérique, ce qui comprend : les équations moyennes turbulentes de Navier-Stokes, ainsi que les équations de transport du modèle k-epsilon. Le chapitre 3, attaché à la modélisation des phénomènes d'anisotropie, présente, à partir de leur hypothèse de base des modélisations représentatives des efforts effectués dans ce domaine ; le but poursuivi n'étant pas une compilation exhaustive de tous ces modèles, mais plutôt une réduction de l'ensemble à quelques formulations significatives. Dans la continuité de cette étude, le chapitre 4 porte sur le développement d'un nouveau modèle algébrique qui fait l'objet d'une formulation détaillée, abordant de nombreux points relatifs à ce type de fermeture. Dans le chapitre 5, une classification des modèles étudiés est alors entreprise. Le chapitre 6 traite plus particulièrement de la méthode numérique prédicteur correcteur, volumes finis, de Maccormack qui a été utilisée. Le septième chapitre regroupe l'analyse et l'exploitation des résultats numériques. Le dernier chapitre présente les conclusions et les perspectives.
APA, Harvard, Vancouver, ISO, and other styles
10

Vrigneau, Baptiste. "Systèmes MIMO précodés optimisant la distance minimale : étude des performances et extension du nombre de voies." Phd thesis, Université de Bretagne occidentale - Brest, 2006. http://tel.archives-ouvertes.fr/tel-00481141.

Full text
Abstract:
Les systèmes multi-antennaires (Multiple-Input Multiple-Ouput ou MIMO) dans le domaine des communications numériques permettent d'améliorer la transmission des données selon deux principaux paramètres souvent antagonistes : le débit d'information et la fiabilité de transmission estimée en terme de probabilité d'erreurs binaire moyenne (PEB). Avec de tels systèmes, la connaissance du canal à l'émission (Channel State Information ou CSI) est un point-clé pour diminuer la PEB grâce à différentes stratégies d'allocations de puissance. Ainsi, un précodeur linéaire à l'émission associé à un décodeur linéaire à la réception peuvent optimiser un critère particulier grâce à cette information. Il en résulte une famille importante de précodeurs dénommée «précodeurs diagonaux» : le système MIMO est équivalent à des sous-canaux SISO indépendants. Les critères optimisés sont par exemple la minimisation de l'erreur quadratique moyenne (EQMM), la maximisation de la capacité (WF), obtenir des PEB égales pour tous les flux de données (EE), la maximisation du RSB post-traitement (max-SNR) ou la qualité de service (QdS). L'équipe TST a récemment élaboré un nouveau précodeur non diagonal basé sur la maximisation de la distance minimale entre symboles de la constellation de réception (max-dmin ). L'enjeu de cette thèse est d'estimer les performances en terme de PEB de ce nouveau précodeur et de les comparer avec les méthodes existantes à savoir le code d'Alamouti et les précodeurs diagonaux. Nous nous sommes intéressés en particulier à la démonstration de l'ordre de diversité maximal du max-dmin puis à la détermination d'une bonne approximation de sa PEB. Le précodeur max-dmin est ensuite associé à de la diversité de polarisation permettant de réduire le coût et l'occupation spatiale d'un système MIMO. Malgré l'introduction de corrélation, les performances proposées par le max-dmin demeurent intéressantes. Nous avons ensuite proposé une extension du précodeur max-dmin permettant de supprimer la limitation à deux sous-canaux : les grands systèmes MIMO sont mieux exploités avec plus de deux sous-canaux.
APA, Harvard, Vancouver, ISO, and other styles
11

Senasli, Moussa. "Reconstruction tridimensionnelle des structures vasculaires à partir d'un nombre restreint d'angiographies numérisées à l'aide des modèles déformables : utilisation d'approches stochastiques." Paris 11, 1999. http://www.theses.fr/1999PA11T007.

Full text
Abstract:
En angiographie numérisée, une image est obtenue après soustraction de deux radiographies du vaisseau enregistrées avant et après injection de produit de contraste. La reconstruction tomographique a pour objectif d'extraire les propriétés morphologiques de la lésion à partir d'un faible nombre de projections densitométriques acquises autour du patient. Dans cette thèse, nous proposons une méthode de reconstruction du vaisseau à partir de trois projections sans introduire de restriction sur les formes des sections recherchées. Cette méthode consiste, en supposant la distribution de produit de contraste uniforme à l'intérieur de la lumière vasculaire, à décrire le vaisseau uniquement par les informations sur ses contours, et non par la valeur d'atténuation aux rayons X en chaque point de son volume. La paroi vasculaire est modélisée par un empilement de courbes B-spline définie par un réseau de points de contrôle, puis déformée au cours des itérations jusqu'à obtention d'une solution optimale. L'évolution du contour dans un cadre stochastique Bayesien est régie par la minimisation d'une fonctionnelle d'énergie, formée d'un terme d'attachement aux donnéës angiographiques et de termes de régularisation prenant en compte les artefacts de contour inhérent à la reconstruction. La solution recherchée correspond au minimum de cette fonctionnelle d'énergie. Des solutions proches du MAP sont obtenues par différents schémas d'optimisation stochastique (recuit simulé) ou déterministes (ICM, gradient). La méthode est appliquée à la reconstruction 3D des structures vasculaires et a été testé sur des simulations de vaisseaux et bifurcations. En utilisant seulement 3 projections, les contours vasculaires sont fidèlement et rapidement reconstruits. Une validation faite sur des données obtenues sur différents fantômes de vaisseaux a montré des résultats prometteur
Digital subtraction angiography is a technique that produce pictures "angiograms" of blood vessels by subtracting projection images recorded before and after the injection of a radioopaque contrast agent. The 3D luminal vessel geometry description and visualization is important for the diagnosis and the prognosis of heart attack and stroke. To retrieve the 3D information, it is necessary to take several projections around the patient. However, in clinical situations, due to the dynamics of the process and the limited dose that can be injected, only a few projections can be obtained. Ln this thesis, we developed an original method for reconstructing the 3D morphological vessel wall from a very low number of angiograms. In fact by supposing a homogenous mixing of the contrast agent inside the luminal region, the object to be reconstructed may be considered to be binary. Lnstead of searching the absorption coefficient at every pixel of the vessel lumen, we propose to estimate the boundary of the vessel. A general mathematical framework is then proposed. Regularization is introduced by modeling the vessel boundary slices by smooth contours to get the reconstruction problem well posed. A Bayesian approach is applied to optimize the shape of the contour according to the recorded angiograms and the internal smoothness constraints. The proposed method consist in retrieving the optimal position of the control points that define the shape of the searched vessel contour. The maximum a posteriori solution is given by the minimization of a non convex energy function attributed to the contour and is performed by a simulated annealing algorithm. The energy consists of a data attachment term (the projection of the final solution must fit the recorded angiograms and a regularization term that guides the reconstruction of realistic, diseased or healthy, vessels). Preliminary simulations on noisy and truncated synthetic images show promising results. With only three projections, the method reproduces quite satisfactorily the forms of the different stenosis, at the vessel segment or the branching level. Validation of the method on hardware vessel phantoms is presented
APA, Harvard, Vancouver, ISO, and other styles
12

Lashermes, Bruno. "Analyse multifractale pratique : coefficients dominants et ordres critiques : Applications à la turbulence pleinement développée : Effets de nombre de Reynolds fini." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2005. http://tel.archives-ouvertes.fr/tel-00011012.

Full text
Abstract:
La description multifractale des signaux a été initiée au cours des vingt dernières années, notamment dans le domaine de la turbulence pleinement développée. Les propriétés de régularité ponctuelle des signaux étudiés sont caractérisées à l'aide d'un spectre de singularités. L'analyse multifractale de ces signaux consiste à mesurer ce spectre de singularités, à l'aide de formalismes multifractals. L'apparition des transformées en ondelette, à la même époque, a permis d'affiner la pratique de l'analyse multifractale, sans pour autant toujours reposer sur des bases mathématiques solides. S. Jaffard a récemment introduit les coefficients dominants, qui permettent de construire un formalisme multifractal mathématiquement bien fondé, et au cadre d'application large : il rend possible la mesure de l'ensemble du spectre de singularités, et reste valide lorsque les signaux analysés contiennent des singularités oscillantes. Ce nouvel outil est pour la première fois mis en oeuvre, numériquement caractérisé et appliqué à des signaux de vitesse turbulente. La question du bon usage pratique des formalismes multifractals, qui reposent sur la mesure d'exposants de fonctions de structure, est essentielle. Le travail présenté se propose d'y apporter des éléments de réponse. Une étude numérique, sur un large panel de processus multifractals synthétiques, a permis d'illustrer et de caractériser un aspect essentiel de l'analyse multifractale pratique, l'existence d'un ordre critique. Un estimateur de cet ordre critique est construit et numériquement caractérisé. Une relecture des résultats obtenus en turbulence est alors effectuée. Enfin, la question de l'universalité des exposants des fonctions de structure en turbulence pleinement développée est abordée. Une modélisation de l'exposant de la fonction de structure d'ordre trois est proposée et comparée à des résultats expérimentaux, mettant en évidence le caractère non universel de sa valeur.
APA, Harvard, Vancouver, ISO, and other styles
13

Kosolapova, Natalia. "Recontruction des spectres microturbulence en nombre d'ondes à partir des données de la réflectométrie de corrélation radiale." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0132/document.

Full text
Abstract:
La turbulence est supposée être la source principale du transport anormal dans les tokamaks, qui conduit à la perte de chaleur beaucoup plus rapidement que celui prédit par la théorie néoclassique. Développement de diagnostics dédiés à la caractérisation de la turbulence du plasma est l'un des principaux enjeux de la fusion nucléaire pour contrôler les flux de particules et de transport d'énergie de la centrale électrique de fusion avenir. Les diagnostics basés sur la diffusion des micro-ondes induite par le plasma ont focalisé l'attention des chercheurs comme outils non perturbants, et nécessitant seulement un accès unique de faible encombrement au plasma. Le principe de base est lié à la phase de l'onde réfléchie qui contient des informations sur la position de la couche de coupure et les fluctuations de densité. La réflectométrie corrélation considérée ici, maintenant couramment utilisée dans les expériences, est la technique fournissant de l'information sur le plasma microturbulence. Bien que le diagnostic soit largement répandu l'interprétation des données reste une tâche assez compliquée. Ainsi, il a été supposé que la distance à laquelle la corrélation des deux signaux reçus à partir du plasma est supprimée est égale à la longueur de corrélation de turbulence. Toutefois, cette approche est erronée et introduit des erreurs énormes sur l'évaluation des paramètres de la microturbulence du plasma. L'objectif de cette thèse fut d'abord le développement d'une théorie analytique, puis de fournir une interprétation correcte des données de la réflectométrie de corrélation radiale (RCR) et enfin d'offrir aux chercheurs des formules simples pour extraire des informations sur les paramètres de turbulence à partir d'expériences utilisant la RCR. Des simulations numériques basées sur la théorie ont été utilisées pour prouver l'applicabilité de la méthode théorique, pour donner un aperçu aux expérimentateurs sur ses capacités et pour optimiser les paramètres du diagnostic lors de son utilisation en fonction des conditions de plasma. De plus, les résultats obtenus sur trois machines différentes sont soigneusement analysés et comparés avec les prédictions théoriques et des simulations numériques
Turbulence is supposed to be the main source of anomalous transport in tokamaks which leads to loss of heat much faster than as it is predicted by neoclassical theory. Development of plasma turbulence diagnostics is one of the key issues of nuclear fusion to control turbulent particles and energy transport in a future fusion power station. Diagnostics based on microwaves scattered from plasma attract attention of researchers as non-disturbing and requiring just a single access to plasma. The phase of the reflected wave contains information on the position of the cut-off layer and density fluctuations. Correlation reflectometry is now a routinely used technique providing information on plasma microturbulence. Although the diagnostics is widely spread data interpretation remains quite a complicated task. Thus, it was supposed that the distance at which the correlation of two signals received from plasma is suppressed is equal to the turbulence correlation length. However this approach is incorrect and introduces huge errors to determined plasma microturbulence parameters. The aim of this thesis is to develop an analytical theory, to give a correct interpretation of radial correlation reflectometry (RCR) data and to provide researchers with simple formulae for extracting information on microturbulence parameters from RCR experiments. Numerical simulations based on the theory prove applicability of this theoretical method and give an insight for experimentalists on its capability and on optimized diagnostic parameters to use. Furthermore the results obtained on three different machines are carefully analyzed and compared with theoretical predictions and numerical simulations as well
APA, Harvard, Vancouver, ISO, and other styles
14

Marcel, Thibaud. "Simulation numérique et modélisation de la turbulence statistique et hybride dans un écoulement de faisceau de tubes à nombre de Reynolds élevé dans le contexte de l'interaction fluide-structure." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0109/document.

Full text
Abstract:
La prédiction des instabilités fluide-élastique qui se développent dans un faisceau de tubes est importante pour la conception des générateurs de vapeur dans les centrales nucléaires, afin de prévenir les accidents liés à ces instabilités. En effet, ces instabilités fluide-élastique, ou flottements, conduisent à une fatigue vibratoire des matériaux, voire à des chocs entre les tubes, et par la suite, à des dégâts importants. Ces aspects sont d'une grande complexité pour les applications scientifiques impliquant l'industrie nucléaire. Le présent travail est issu d'une collaboration entre l'EDF, le CEA et l'IMFT. Elle vise à améliorer la simulation numérique de cette interaction fluide- structure dans le faisceau de tubes, en particulier dans la gamme de paramètres critiques favorisant l'apparition d'un amortissement négatif du système et de l'instabilité fluide-élastique
The prediction of fluid-elastic instabilities that develop in a tube bundle is of major importance for the design of modern heat exchangers in nuclear reactors, to prevent accidents associated with such instabilities. The fluid-elastic instabilities, or flutter, cause material fatigue, shocks between beams and damage to the solid walls. These issues are very complex for scientific applications involving the nuclear industry. This work is a collaboration between EDF, CEA and IMFT. It aims to improve the numerical simulation of the fluid-structure interaction in the tube bundle, in particular in the range of critical parameters contribute to the onset of damping negative system and the fluid-elastic instability
APA, Harvard, Vancouver, ISO, and other styles
15

Salloum, Zahraa. "Maximum de vraisemblance empirique pour la détection de changements dans un modèle avec un nombre faible ou très grand de variables." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1008/document.

Full text
Abstract:
Cette thèse est consacrée à tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire ainsi que dans un modèle de régression linéaire en très grande dimension. Tout d'abord, nous proposons une méthode basée sur la vraisemblance empirique pour tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire. Sous l'hypothèse nulle, nous prouvons la consistance et la vitesse de convergence des estimateurs des paramètres de régression. La loi asymptotique de la statistique de test sous l'hypothèse nulle nous permet de trouver la valeur critique asymptotique. D'autre part, nous prouvons que la puissance asymptotique de la statistique de test proposée est égale à 1. Le modèle épidémique avec deux points de rupture est également étudié. Ensuite, on s'intéresse à construire les régions de confiance asymptotiques pour la différence entre les paramètres de deux phases d'un modèle non-linéaire avec des regresseurs aléatoires en utilisant la méthode de vraisemblance empirique. On montre que le rapport de la vraisemblance empirique a une distribution asymptotique χ2. La méthode de vraisemblance empirique est également utilisée pour construire les régions de confiance pour la différence entre les paramètres des deux phases d'un modèle non-linéaire avec des variables de réponse manquantes au hasard (Missing At Random (MAR)). Afin de construire les régions de confiance du paramètre en question, on propose trois statistiques de vraisemblance empirique : la vraisemblance empirique basée sur les données cas-complète, la vraisemblance empirique pondérée et la vraisemblance empirique par des valeurs imputées. On prouve que les trois rapports de vraisemblance empirique ont une distribution asymptotique χ2. Un autre but de cette thèse est de tester la présence d'un changement dans les coefficients d'un modèle linéaire en grande dimension, où le nombre des variables du modèle peut augmenter avec la taille de l'échantillon. Ce qui conduit à tester l'hypothèse nulle de non-changement contre l'hypothèse alternative d'un seul changement dans les coefficients de régression. Basée sur les comportements asymptotiques de la statistique de rapport de vraisemblance empirique, on propose une simple statistique de test qui sera utilisée facilement dans la pratique. La normalité asymptotique de la statistique de test proposée sous l'hypothèse nulle est prouvée. Sous l'hypothèse alternative, la statistique de test diverge
In this PHD thesis, we propose a nonparametric method based on the empirical likelihood for detecting the change in the parameters of nonlinear regression models and the change in the coefficient of linear regression models, when the number of model variables may increase as the sample size increases. Firstly, we test the null hypothesis of no-change against the alternative of one change in the regression parameters. Under null hypothesis, the consistency and the convergence rate of the regression parameter estimators are proved. The asymptotic distribution of the test statistic under the null hypothesis is obtained, which allows to find the asymptotic critical value. On the other hand, we prove that the proposed test statistic has the asymptotic power equal to 1. The epidemic model, a particular case of model with two change-points, under the alternative hypothesis, is also studied. Afterwards, we use the empirical likelihood method for constructing the confidence regions for the difference between the parameters of a two-phases nonlinear model with random design. We show that the empirical likelihood ratio has an asymptotic χ2 distribu- tion. Empirical likelihood method is also used to construct the confidence regions for the difference between the parameters of a two-phases nonlinear model with response variables missing at randoms (MAR). In order to construct the confidence regions of the parameter in question, we propose three empirical likelihood statistics : empirical likelihood based on complete-case data, weighted empirical likelihood and empirical likelihood with imputed va- lues. We prove that all three empirical likelihood ratios have asymptotically χ2 distributions. An another aim for this thesis is to test the change in the coefficient of linear regres- sion models for high-dimensional model. This amounts to testing the null hypothesis of no change against the alternative of one change in the regression coefficients. Based on the theoretical asymptotic behaviour of the empirical likelihood ratio statistic, we propose, for a deterministic design, a simpler test statistic, easier to use in practice. The asymptotic normality of the proposed test statistic under the null hypothesis is proved, a result which is different from the χ2 law for a model with a fixed variable number. Under alternative hypothesis, the test statistic diverges
APA, Harvard, Vancouver, ISO, and other styles
16

Rolland, Julien Yves. "Etude statistique des chemins de premier retour aux nombres de Knudsen intermédiaires : de la simulation par méthode de Monte Carlo à l'utilisation de l'approximation de diffusion." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT027G/document.

Full text
Abstract:
En présence de diffusions multiples, les algorithmes de Monte-Carlo sont trop coûteux pour être employés dans les algorithmes de reconstruction d'images de géométries tridimensionnelles réalistes. Pour des trajectoires de premiers retours, l'approximation de diffusion est communément employée afin de représenter la statistique des chemins aux nombres de Knudsen tendant vers zéro. En formulant des problèmes équivalents sur des trajectoires de premiers passages, l'usage de l'approximation est étendue en un développement théorique. Cette nouvelle formulation assure un bon niveau de précision, sur une large plage de valeurs du nombre de Knudsen en ce qui concerne l'évaluation des moments de la distribution des longueurs des chemins de premier retour. La résolution numérique du modèle formulé est confrontée aux simulations numériques type Monte- Carlo sur des géométries mono-dimensionnelles et un cas tridimensionel ouvrant des perspectives vers une généralisation aux applications réelles
For multiple scattering, Monte-Carlo algorithms are computationally too demanding for use in image reconstruction of 3D realistic geometries. In the study of first return path, the diffusion approximation is commonly used to represent their statistical behaviour when the Knudsen number tends to zero. With the formulation of equivalent problems for first passage path, the use of the approximation is extended in a theoretical development. The new model provides a good level of accuracy, for a wide distribution of Knudsen numbers when evaluating the moments distribution of the first return paths length. Numerical application of the model is confronted to Monte-Carlo simulations on one dimension geometries and a simple three-dimension case opening perspectives for the generalization to practical applications
APA, Harvard, Vancouver, ISO, and other styles
17

Giguelay, Jade. "Estimation des moindres carrés d'une densité discrète sous contrainte de k-monotonie et bornes de risque. Application à l'estimation du nombre d'espèces dans une population." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS248/document.

Full text
Abstract:
Cette thèse est une contribution au domaine de l'estimation non-paramétrique sous contrainte de forme. Les fonctions sont discrètes et la forme considérée, appelée k-monotonie, k désignant un entier supérieur à 2, est une généralisation de la convexité. L'entier k constitue un indicateur du degré de creux d'une fonction convexe. Le manuscrit est structuré en trois parties en plus de l'introduction, de la conclusion et d'une annexe.Introduction :L'introduction comprend trois chapitres. Le premier présente un état de l'art de l'estimation de densité sous contrainte de forme. Le second est une synthèse des résultats obtenus au cours de la thèse, disponible en français et en anglais. Enfin, le Chapitre 3 regroupe quelques notations et des résultats mathématiques utilisés au cours du manuscrit.Partie I : Estimation d'une densité discrète sous contrainte de k-monotonieDeux estimateurs des moindres carrés d'une distribution discrète p* sous contrainte de k-monotonie sont proposés. Leur caractérisation est basée sur la décomposition en base de spline des suites k-monotones, et sur les propriétés de leurs primitives. Les propriétés statistiques de ces estimateurs sont étudiées. Leur qualité d'estimation, en particulier, est appréciée. Elle est mesurée en terme d'erreur quadratique, les deux estimateurs convergent à la vitesse paramétrique. Un algorithme dérivé de l'Algorithme de Réduction de Support est implémenté et disponible au R-package pkmon. Une étude sur jeux de données simulés illustre les propriétés de ces estimateurs. Ce travail a été publié dans Electronic Journal of Statistics (Giguelay, 2017).Partie II : Calculs de bornes de risqueDans le premier chapitre de la Partie II, le risque quadratique de l'estimateur des moindres carrés introduit précédemment est borné. Cette borne est adaptative en le sens qu'elle dépend d'un compromis entre la distance de p* à la frontière de l'ensemble des densités k-monotones à support fini, et de la complexité (en terme de décomposition dans la base de spline) des densités appartenant à cet ensemble qui sont suffisamment proches de p*. La méthode est basée sur une formulation variationnelle du risque proposée par Chatterjee (2014) etgénéralisée au cadre de l'estimation de densité. Par la suite, les entropies à crochet des espaces fonctionnels correspondants sont calculées afin de contrôler le supremum de processus empiriques impliqué dans l'erreur quadratique. L'optimalité de la borne de risque est ensuite discutée au regard des résultats obtenus dans le cas continu et dans le cadre de la régression.Dans le second chapitre de la Partie II, des résultats complémentaires sur les entropies à crochet pour les espaces de fonctions k-monotones sont donnés.Partie III : Estimation du nombre d'espèces dans une population et tests de k-monotonieLa dernière partie traite du problème de l'estimation du nombre d'espèces dans une population. La modélisation choisie est celle d'une distribution d'abondance commune à toutes les espèces et définie comme un mélange. La méthode proposée repose sur l'hypothèse de k-monotonie d'abondance. Cette hypothèse permet de rendre le problème de l'estimation du nombre d'espèces identifiable. Deux approches sont proposées. La première est basée sur l'estimateur des moindres carrés sous contrainte de k-monotonie, tandis que la seconde est basée sur l'estimateur empirique. Les deux estimateurs sont comparés sur une étude sur données simulées. L'estimation du nombre d'espèces étant fortement dépendante du degré de k-monotonie choisi dans le modèle, trois procédures de tests multiples sont ensuite proposées pour inférer le degré k directement sur la base des observations. Le niveau et la puissance de ces procédures sont calculés, puis évalués au moyen d'une étude sur jeux de données simulés et la méthode est appliquée sur des jeux de données réels issus de la littérature
This thesis belongs to the field of nonparametric density estimation under shape constraint. The densities are discrete and the form is k-monotonicity, k>1, which is a generalization of convexity. The integer k is an indicator for the hollow's degree of a convex function. This thesis is composed of three parts, an introduction, a conclusion and an appendix.Introduction :The introduction is structured in three chapters. First Chapter is a state of the art of the topic of density estimation under shape constraint. The second chapter of the introduction is a synthesis of the thesis, available in French and in English. Finally Chapter 3 is a short chapter which summarizes the notations and the classical mathematical results used in the manuscript.Part I : Estimation of a discrete distribution under k-monotonicityconstraintTwo least-square estimators of a discrete distribution p* under constraint of k-monotonicity are proposed. Their characterisation is based on the decomposition on a spline basis of k-monotone sequences, and on the properties of their primitives. Their statistical properties are studied, and in particular their quality of estimation is measured in terms of the quadratic error. They are proved to converge at the parametric rate. An algorithm derived from the support reduction algorithm is implemented in the R-package pkmon. A simulation study illustrates the properties of the estimators. This piece of works, which constitutes Part I of the manuscript, has been published in ElectronicJournal of Statistics (Giguelay, 2017).Part II : Calculation of risks boundsIn the first chapter of Part II, a methodology for calculating riskbounds of the least-square estimator is given. These bounds are adaptive in that they depend on a compromise between the distance of p* on the frontier of the set of k-monotone densities with finite support, and the complexity (linked to the spline decomposition) of densities belonging to this set that are closed to p*. The methodology based on the variational formula of the risk proposed by Chatterjee (2014) is generalized to the framework of discrete k-monotone densities. Then the bracketting entropies of the relevant functionnal space are calculating, leading to control the empirical process involved in the quadratic risk. Optimality of the risk bound is discussed in comparaison with the results previously obtained in the continuous case and for the gaussian regression framework. In the second chapter of Part II, several results concerningbracketting entropies of spaces of k-monotone sequences are presented.Part III : Estimating the number of species in a population and tests of k-monotonicityThe last part deals with the problem of estimating the number ofpresent species in a given area at a given time, based on theabundances of species that have been observed. A definition of ak-monotone abundance distribution is proposed. It allows to relatethe probability of observing zero species to the truncated abundancedistribution. Two approaches are proposed. The first one is based on the Least-Squares estimator under constraint of k-monotonicity, the second oneis based on the empirical distribution. Both estimators are comparedusing a simulation study. Because the estimator of the number ofspecies depends on the value of the degree of monotonicity k, we proposea procedure for choosing this parameter, based on nested testingprocedures. The asymptotic levels and power of the testing procedureare calculated, and the behaviour of the method in practical cases isassessed on the basis of a simulation study
APA, Harvard, Vancouver, ISO, and other styles
18

Edeling, Wouter Nico. "Quantification of modelling uncertainties in turbulent flow simulations." Thesis, Paris, ENSAM, 2015. http://www.theses.fr/2015ENAM0007/document.

Full text
Abstract:
Le but de cette thèse est de faire des simulations prédictives à partir de modèles de turbulence de type RANS (Reynolds-Averaged Navier-Stokes). Ces simulations font l'objet d'un traitement systématique du modèle, de son incertitude et de leur propagation par le biais d'un modèle de calcul prédictif aux incertitudes quantifiées. Pour faire cela, nous utilisons le cadre robuste de la statistique Bayesienne.La première étape vers ce but a été d'obtenir une estimation de l'erreur de simulations RANS basées sur le modèle de turbulence de Launder-Sharma k-e. Nous avons recherché en particulier à estimer des incertitudes pour les coefficients du modele, pour des écoulements de parois en gradients favorable et défavorable. Dans le but d'estimer la propagation des coefficients qui reproduisent le plus précisemment ces types d'écoulements, nous avons étudié 13 configurations différentes de calibrations Bayesienne. Chaque calibration était associée à un gradient de pression spécifique gràce à un modèle statistique. Nous representont la totalite des incertitudes dans la solution avec une boite-probabilite (p-box). Cette boîte-p représente aussi bien les paramètres de variabilité de l'écoulement que les incertitudes epistemiques de chaque calibration. L'estimation d'un nouvel écoulement de couche-limite est faite pour des valeurs d'incertitudes générées par cette information sur l'incertitude elle-même. L'erreur d'incertitude qui en résulte est consistante avec les mesures expérimentales.Cependant, malgré l'accord avec les mesures, l'erreur obtenue était encore trop large. Ceci est dû au fait que la boite-p est une prédiction non pondérée. Pour améliorer cela, nous avons développé une autre approche qui repose également sur la variabilité des coefficients de fermeture du modèle, au travers de multiples scénarios d'écoulements et de multiples modèles de fermeture. La variabilité est là encore estimée par le recours à la calibration Bayesienne et confrontée aux mesures expérimentales de chaque scénario. Cependant, un scénario-modèle Bayesien moyen (BMSA) est ici utilisé pour faire correspondre les distributions a posteriori à un scénario (prédictif) non mesuré. Contrairement aux boîtes-p, cette approche est une approche pondérée faisant appel aux probabilités des modèles de turbulence, déterminée par les données de calibration. Pour tous les scénarios de prédiction considérés, la déviation standard de l'estimation stochastique est consistante avec les mesures effectuées.Les résultats de l'approche BMSA expriment des barres d'erreur raisonnables. Cependant, afin de l'appliquer à des topologies plus complexes et au-delà de la classe des écoulements de couche-limite, des techniques de modeles de substitution doivent être mises en places. La méthode de la collocation Stochastique-Simplex (SSC) est une de ces techniques et est particulièrement robuste pour la propagation de distributions d'entrée incertaines dans un code de calcul. Néanmois, son utilisation de la triangulation Delaunay peut entrainer un problème de coût prohibitif pour les cas à plus de 5 dimensions. Nous avons donc étudié des moyens pour améliorer cette faible scalabilité. En premier lieu, c'est dans ce but que nous avons en premier proposé une technique alternative d'interpolation basée sur le probleme 'Set-Covering'. Deuxièmement, nous avons intégré la méthode SSC au cadre du modèle de réduction à haute dimension (HDMR) dans le but d'éviter de considérer tous les espaces de haute dimension en même temps.Finalement, avec l'utilisation de notre technique de modelisation de substitution (surrogate modelling technique), nous avons appliqué le cadre BMSA à un écoulement transsonique autour d'un profil d'aile. Avec cet outil nous sommes maintenant capable de faire des simulations prédictives d'écoulements auparavant trop coûteux et offrant des incertitudes quantifiées selon les imperfections des différents modèles de turbulence
The goal of this thesis is to make predictive simulations with Reynolds-Averaged Navier-Stokes (RANS) turbulence models, i.e. simulations with a systematic treatment of model and data uncertainties and their propagation through a computational model to produce predictions of quantities of interest with quantified uncertainty. To do so, we make use of the robust Bayesian statistical framework.The first step toward our goal concerned obtaining estimates for the error in RANS simulations based on the Launder-Sharma k-e turbulence closure model, for a limited class of flows. In particular we searched for estimates grounded in uncertainties in the space of model closure coefficients, for wall-bounded flows at a variety of favourable and adverse pressure gradients. In order to estimate the spread of closure coefficients which reproduces these flows accurately, we performed 13 separate Bayesian calibrations. Each calibration was at a different pressure gradient, using measured boundary-layer velocity profiles, and a statistical model containing a multiplicative model inadequacy term in the solution space. The results are 13 joint posterior distributions over coefficients and hyper-parameters. To summarize this information we compute Highest Posterior-Density (HPD) intervals, and subsequently represent the total solution uncertainty with a probability box (p-box). This p-box represents both parameter variability across flows, and epistemic uncertainty within each calibration. A prediction of a new boundary-layer flow is made with uncertainty bars generated from this uncertainty information, and the resulting error estimate is shown to be consistent with measurement data.However, although consistent with the data, the obtained error estimates were very large. This is due to the fact that a p-box constitutes a unweighted prediction. To improve upon this, we developed another approach still based on variability in model closure coefficients across multiple flow scenarios, but also across multiple closure models. The variability is again estimated using Bayesian calibration against experimental data for each scenario, but now Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors in an unmeasured (prediction) scenario. Unlike the p-boxes, this is a weighted approach involving turbulence model probabilities which are determined from the calibration data. The methodology was applied to the class of turbulent boundary-layers subject to various pressure gradients. For all considered prediction scenarios the standard-deviation of the stochastic estimate is consistent with the measurement ground truth.The BMSA approach results in reasonable error bars, which can also be decomposed into separate contributions. However, to apply it to more complex topologies outside the class of boundary-layer flows, surrogate modelling techniques must be applied. The Simplex-Stochastic Collocation (SSC) method is a robust surrogate modelling technique used to propagate uncertain input distributions through a computer code. However, its use of the Delaunay triangulation can become prohibitively expensive for problems with dimensions higher than 5. We therefore investigated means to improve upon this bad scalability. In order to do so, we first proposed an alternative interpolation stencil technique based upon the Set-Covering problem, which resulted in a significant speed up when sampling the full-dimensional stochastic space. Secondly, we integrated the SSC method into the High-Dimensional Model-Reduction framework in order to avoid sampling high-dimensional spaces all together.Finally, with the use of our efficient surrogate modelling technique, we applied the BMSA framework to the transonic flow over an airfoil. With this we are able to make predictive simulations of computationally expensive flow problems with quantified uncertainty due to various imperfections in the turbulence models
APA, Harvard, Vancouver, ISO, and other styles
19

Vincent, Matthieu. "Interaction entre défaut de surface et taille de grain en fatigue à grand nombre de cycles : approche expérimentale et numérique sur un fer pur Armco." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0018/document.

Full text
Abstract:
L’objectif de ces travaux de thèse est d’étudier l’influence du rapport entre taille de défaut et longueur caractéristique de la microstructure, sur la limite de fatigue pour une durée de vie fixée d’un matériaux métallique,dans le cadre de la fatigue à grand nombre de cycle (FGNC). Le fer pur Armco est choisi comme matériau d’étude, car sa microstructure simple présente une seule longueur caractéristique à l’échelle mésoscopique (échelle des grains) : la taille de grain. Le but de l’étude revient ainsi à étudier la compétition entre un effet de structure (défaut surfacique)et un effet matériau (taille de grain) dans le cadre de sollicitations mécaniques en FGNC.Afin d’obtenir une taille de défaut comparable mais aussi inférieure à la taille de grain du matériau, un protocole thermomécanique a été élaboré pour augmenter la taille de grain. Des essais de FGNC, utilisant des éprouvettes issues des deux tailles de microstructures (matériau initial et celui écroui traité) dans lesquelles sont introduits des défauts hémisphériques de tailles différentes, ont été effectués pour estimer les limites de fatigue pour différents rapports taille de défaut / taille de grain. Lorsque les diagrammes de Kitagawa sont présentés en valeurs relatives(limite de fatigue / celle du matériau sans défaut en fonction de la taille de défaut / taille de grain), il existe une seule courbe qui combine les deux microstructures. Ce diagramme de Kitagawa sans dimension permet ainsi d’analyser la réduction de la limite de fatigue causée par un défaut. L’utilisation de la taille relative du défaut par rapport à la dimension microstructurale caractéristique apparaît comme plus pertinente que l’emploi de la taille physique réelle du défaut.Ces résultats expérimentaux sont utilisés pour reproduire les essais en FGNC avec des simulations Éléments Finis sur des microstructures 3D représentatives du fer Armco. La compétition existant entre la concentration de contrainte induite par le défaut géométrique et les régions fortement sollicitées de la microstructure engendrées parl’anisotropie du comportement mécanique des grains est étudiée. Un critère mésoscopique (à partir des grandeurs mécaniques moyennées par grain) basé sur une approche statistique permet de retrouver l’allure du diagramme de Kitagawa adimensionné, c’est-à-dire la taille relative du défaut critique à partir de laquelle ce dernier prend le passur l’hétérogénéité de la réponse de la microstructure et conditionne ainsi la tenue en fatigue du polycristal. La modification du critère mésoscopique par la prise en compte des hétérogénéités intragranulaires (via l’écart-type par grain des grandeurs mécaniques) est discutée
The objective of this thesis is to study the influence of the ratio between the defect size and themicrostructure characteristic length on the fatigue limit (for a fixed fatigue life) of a metallic material, under highcycle fatigue (HCF). Pure Armco iron is chosen because its simple microstructure has a single characteristic lengthat the mesoscopic scale (grain scale) : the grain size. The aim of the study is thus to study the competition betweena structural effect (surface defect) and a material effect (grain size) in the context of mechanical stresses in HCF.In order to obtain a comparable different grain size, a thermomechanical protocol has been developed. HCF tests,using specimens from both microstructure sizes (initial material and processed hardened material) in which hemisphericaldefects of different sizes were introduced, were performed to estimate the fatigue limits for different defectsize / grain size ratios. When Kitagawa diagrams are presented in relative values (fatigue limit / fatigue limit ofdefect free material versus defect size / grain size), there is a single curve that combines the two microstructures.This dimensionless Kitagawa diagram thus makes it possible to analyze the reduction of the fatigue limit inducedby a defect. The use of the relative size of the defect with respect to the characteristic microstructural dimensionappears to be more relevant than the use of the physical size of the defect.These experimental results are used to reproduce the HCF tests with Finite Element simulations on 3D microstructuresrepresentative of Armco iron. The competition existing between the stress concentration induced by thegeometrical defect and the highly stressed regions of the microstructure generated by the anisotropy of the mechanicalbehavior of the grains is studied. A mesoscopic criterion (involving mechanical quantities averaged by grain)based on a statistical approach allows to find the evolution of the dimensionless Kitagawa diagram, ie the relativesize of the critical defect from which it predominates over the response heterogeneity of the microstructure and thusgoverns the fatigue behavior of the polycrystal. The modification of the mesoscopic criterion by taking into accountintragranular heterogeneities (with the standard deviation per grain of mechanical quantities) is discussed
APA, Harvard, Vancouver, ISO, and other styles
20

Magnanensi, Jérémy. "Amélioration et développement de méthodes de sélection du nombre de composantes et de prédicteurs significatifs pour une régression PLS et certaines de ses extensions à l'aide du bootstrap." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAJ082/document.

Full text
Abstract:
La régression Partial Least Squares (PLS), de part ses caractéristiques, est devenue une méthodologie statistique de choix pour le traitement de jeux de données issus d’études génomiques. La fiabilité de la régression PLS et de certaines de ses extensions repose, entre autres, sur une détermination robuste d’un hyperparamètre, le nombre de composantes. Une telle détermination reste un objectif important à ce jour, aucun critère existant ne pouvant être considéré comme globalement satisfaisant. Nous avons ainsi élaboré un nouveau critère de choix pour la sélection du nombre de composantes PLS basé sur la technique du bootstrap et caractérisé notamment par une forte stabilité. Nous avons ensuite pu l’adapter et l’utiliser à des fins de développement et d’amélioration de procédés de sélection de prédicteurs significatifs, ouvrant ainsi la voie à une identification rendue plus fiable et robuste des probe sets impliqués dans la caractéristique étudiée d’une pathologie
The Partial Least Squares (PLS) regression, through its properties, has become a versatile statistic methodology for the analysis of genomic datasets.The reliability of the PLS regression and some of its extensions relies on a robust determination of a tuning parameter, the number of components. Such a determination is still a major aim since no existing criterion could be considered as a global benchmark one in the state-of-art literature. We developed a new bootstrap based stopping criterion in PLS components construction that guarantee a high level of stability. We then adapted and used it to develop and improve variable selection processes, allowing a more reliable and robust determination of significant probe sets related to the studied feature of a pathology
APA, Harvard, Vancouver, ISO, and other styles
21

El, Haje Hussein Fida. "Tests statistiques sur les générateurs physiques de nombres aléatoires (TRNGs)." Aix-Marseille 1, 2007. http://www.theses.fr/2007AIX11018.

Full text
Abstract:
L’objectif de cette thèse est de fournir des solutions aux problèmes de tests statistiques appliqués sur les séquences binaires issues des générateurs physiques de nombres aléatoires (TRNGs,True Random Number Generators). Les tests statistiques de l’entropie sont les tests les plus importants pour tester les TRNGs. Plus particulièrement, le test universel de Maurer est considéré aujourd’hui comme étant une référence pour tester l’entropie de ces générateurs. Le travail de la thèse peut se résumer en les trois contributions suivantes. La conception d’un outil logiciel que nous avons nommé Genstar, Generic Statistical Test Architecture formé de tests statistiques sur les générateurs de nombres aléatoires. Les caractéristiques importantes de cet outil sont de munir les tests statistiques qui y figurent de méthodes communes, de pouvoir intégrer tout test statistique programmable que l’on veut implémenter et surtout de fournir des méthodes de comparaison de deux ou plusieurs tests statistiques. L’amélioration du test de Maurer ; nous fournissons plusieurs méthodes pour l’amélioration du test telles que la méthode du m-spacing ou du p-leave out et proposons de nouveaux tests complémentaires remédiant à plusieurs problèmes liés au test de Maurer dans les cas où l’alternative consiste en des chaînes de Markov de longues mémoires (SD test), ou le cas où la longueur de blocs du test est très grande (MaurerPP). On s’appuie sur Genstar pour illustrer numériquement les meilleures performances de ces tests pour des alternatives typiques. Les améliorations que nous proposons au test de Maurer étant en partie basées sur la méthode du m-spacing pour l’estimation de l’entropie, on prouve la convergence de ces estimateurs vers la loi gaussienne sous des hypothèses plus générales sur les propriétés de la fonction de densité
Statistical tests related to the entropy estimation of a random source are widely used in testing of true random number generators (TRNGs,True Random Number Generators) intended for cryptographic applications. Namely, Maurer’s universal statistical test is nowadays viewed as a standard in this domain. Therefore, from a statistical viewpoint, this thesis is focused on further developments of entropy tests. It consists in three main parts : The design of a generic software tool called Genstar, Generic Statistical Test Architecture. Genstar consists in a collection of statistical tests for random number generators. This software is developed with the help of the objet oriented programming, thus providing a common interface enabling easy integration of new statistical tests in Genstar. The second important characteristic of Genstar is related to the problem of comparison of statistical tests. To compute the power of a given statistical test, Genstar is equipped with a family of statistical models of TRNGs. Improvements of Maurer’s test. To improve statistical characteristics of this test, we propose several approaches such as the m-spacing and the p-leave out methods. In the very core of these methods is a new interpretation of the Maurer test related to the maximum likelihood tests for the problem of uniformity testing. It’s well known that the standard Maurer test cannot detect long memory dependencies in the data. In order to overcome this difficulty, we propose two approaches. The first one, called (SD test), computes the distribution of distances between motifs in the data. The second approach called MaurerPP is based on the idea of the equivalence of motifs. This equivalence permits to reduce multiple motifs testing to one generic motif testing and resolves efficiently the problem of large blocks in the Maurer test. Standard normality of m-spacings entropy estimators under weaker assumptions on the probability density. The improvements of the Maurer test proposed in this thesis are essentially based on the m - spacing method in the entropy estimation. In this thesis, we show that under mild conditions on the probability density, i. E. For vanishing densities, the m-spacings entropy estimators have the standard Gaussian limit
APA, Harvard, Vancouver, ISO, and other styles
22

Cadiou, Anne. "Contribution a l'etude de modeles de turbulence au second ordre." Phd thesis, Ecole centrale de nantes - ECN, 1996. http://tel.archives-ouvertes.fr/tel-00086507.

Full text
Abstract:
La modelisation statistique en un point d'ecoulements turbulents incompressibles constitue le cadre de ce travail.

Dans un premier temps, l'etude du comportement de modeles homogenes classiques de type Rij-epsilon a ete effectuee pour des ecoulements soumis a des effets de rotation. Cette etude a permis de s'interesser plus particulierement a la modelisation du tenseur des correlations pression-deformation et de discuter des contraintes d'objectivite, de realisabilite, et de verification des etats limites de distorsions rapides. Les modeles choisis ont ete testes sur des ecoulements homogenes classiques et compares a des resultats de simulation directe. Les difficultes de prediction des
ecoulements fortement rotationnels par ces formulations classiques ont conduit au developpement d'un modele homogene base sur l'equation de transport du tenseur des correlations pression-deformation, dont l'expression est deduite d'une description spectrale de la turbulence. Ce modele necessite la fermeture de trois termes, correspondant au tenseur des taux de dissipation et aux termes lent et rapide de l'equation d'evolution du tenseur de Reynolds. Ses performances ont ete comparees aux modeles classiques dans les cas homogenes precedents et pour des ecoulements de distorsions rapides. Les comparaisons ont montre notamment un meilleur comportement du terme rapide de ce modele par rapport aux formulations classiques.



La prise en compte des effets de paroi constitue la deuxieme partie du travail de these. Trois modeles du second ordre bas-Reynolds ont ete appliques au cas du canal plan etabli. Les comportements asymptotiques des modeles ont ete compares a l'aide de developpements de Taylor au voisinage des parois et de resultats de simulation directe. L'extension du modele developpe precedemment pour
des ecoulements homogenes a egalement ete effectuee dans le cas du canal plan.

Le niveau inhabituel de la fermeture proposee rend difficile son application a des configurations tridimensionnelles. La derniere partie de ce travail est par consequent consacree a la validation de fermetures bas-Reynolds classiques, dans le cas d'ecoulements en geometrie complexe. Le comportement de l'un des modeles du second ordre etudie precedemment dans le cas du canal plan est valide sur un cas test tridimensionnel caracterise par un tourbillon longitudinal intense.
APA, Harvard, Vancouver, ISO, and other styles
23

Emond, David. "Regroupement optimal d'objets à l'intérieur d'un nombre imposé de classes de taille égale." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29891/29891.pdf.

Full text
Abstract:
Dans ce mémoire, on considère la situation où l’on désire grouper des objets dans un nombre prédéterminé de classes de même cardinal. Le choix de la composition des classes est basé sur des critères de minimisation de la variance intragroupe ou de maximisation de la similarité intragroupe. Trois méthodes sont développées pour obtenir le regroupement optimal selon l'un de ces critères. Les deux premières approches consistent à diviser le problème global de classification en plusieurs sous-problèmes, respectivement selon les valeurs prises des variables d’intérêt et selon un aspect probabiliste. La troisième méthode utilise des propriétés de la loi stationnaire des chaînes de Markov. Les trois techniques sont utilisées pour tenter de trouver le regroupement optimal pour classer géographiquement les équipes de la Ligue nationale de hockey en six divisions de cinq équipes. Des études de simulation permettent de mesurer l'efficacité des méthodes.
This master's thesis is structured around the case in which we want to classify objects into a specific number of clusters of the same size. The choice of clusters to form is determined by minimizing the within-cluster variance or maximizing the within-cluster similarity. Three methods were developed to obtain the optimal clustering according to these two criterions. The first two approaches consist in splitting up the clustering problem in several sub-problems, one in a quantitative way and the other in a probabilistic way. The third method uses properties of the Markov chain limiting probabilities. The three methods are used to try to find the optimal geographic clustering to class the thirty National hockey league teams into six divisions of five teams. The efficiency of those approaches is assessed with simulations.
APA, Harvard, Vancouver, ISO, and other styles
24

Bureik, Jan-Philipp. "Number statistics and momentum correlations in interacting Bose gases." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP014.

Full text
Abstract:
Ce travail de thèse est dédié à l'étude des statistiques du nombre et corrélations en impulsion dans des gaz de Bose sur réseaux interagissants. Le modèle de Bose-Hubbard est simulé en chargeant des condensats de Bose-Einstein (BEC) d'atomes d'Hélium-4 métastables dans un réseau optique tridimensionnel (3D). Ce modèle présente une transition de phase quantique d'un superfluide à un isolant de Mott induite par des fluctuations quantiques provoquées par l'interaction. L'objectif de ce travail est de comprendre le rôle de ces fluctuations quantiques en analysant leurs signatures dans l'espace des impulsions. Le schéma de détection original utilisé à cette fin fournit la distribution d'impulsion résolue à l'échelle de l'atome unique en 3D. À partir de ces jeux de données composés de milliers d'atomes individuels, les statistiques du nombre d'occupation de différents sous-volumes de l'espace des impulsions fournissent des informations sur les propriétés de corrélation ou de cohérence du gaz de Bose interagissant. À impulsions proches, ces probabilités d'occupation permettent l'identification de statistiques d'état pur sous-jacentes dans le cas d'états many-body classiques tels que les superfluides en réseau et les isolants de Mott. Dans le régime faiblement interagissant, des corrélations bien établies entre les paires d'atomes à impulsions opposées sont observées. De plus, on constate que ces corrélations entre paires diminuent en faveur de corrélations plus complexes entre plus de deux particules lorsque les interactions sont augmentées. Une observation directe de corrélations non-Gaussiennes encapsule la nature statistique complexe des superfluides fortement interagissants bien en amont de la transition de phase vers l'isolant de Mott. Enfin, lors de la transition de phase, on constate une augmentation des fluctuations du nombre d'occupation du mode du BEC, constituant une signature directe des fluctuations quantiques induisant la transition. Des quantités indépendantes de la taille du système, telles que le cumulant de Binder, présentent des variations abruptes même dans un système de taille finie et semblent prometteuses pour constituer des observables appropriés permettant de déterminer le comportement universel lorsqu'elles sont mesurées dans un système homogène
This thesis work is dedicated to the study of number statistics and momentum correlations in interacting lattice Bose gases. The Bose-Hubbard model is simulated by loading Bose-Einstein condensates (BECs) of metastable Helium-4 atoms into a three-dimensional (3D) optical lattice. This model exhibits a quantum phase transition from a superfluid to a Mott insulator that is driven by interaction-induced quantum fluctuations. The objective of this work is to comprehend the role of these quantum fluctuations by analyzing their signatures in momentum space. The original detection scheme employed towards this aim provides the single-particle resolved momentum distribution of the atoms in 3D. From such datasets made up of thousands of individual atoms, the number statistics of occupation of different sub-volumes of momentum space yield information about correlation or coherence properties of the interacting Bose gas. At close-by momenta these occupation probabilities permit the identification of underlying pure-state statistics in the case of textbook many-body states such as lattice superfluids and Mott insulators. In the weakly-interacting regime, well-established correlations between pairs of atoms at opposite momenta are observed. Furthermore, these pair correlations are found to decrease in favor of more intricate correlations between more than two particles as interactions are increased. A direct observation of non-Gaussian correlations encapsulates the complex statistical nature of strongly-interacting superfluids well before the Mott insulator phase transition. Finally, at the phase transition, fluctuations of the occupation number of the BEC mode are found to be enhanced, constituting a direct signature of the quantum fluctuations driving the transition. System-size independent quantities such as the Binder cumulant are shown to exhibit distinctive sharp features even in a finite-size system, and hold promise for constituting suitable observables for determining universal behavior when measured in a homogeneous system
APA, Harvard, Vancouver, ISO, and other styles
25

Thiébaud, Marine. "Quelques aspects de la physique des interfaces cisaillées : Hydrodynamique et Fluctuations." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00769006.

Full text
Abstract:
Ce travail porte sur l'étude théorique des interfaces entre deux fluides visqueux, soumis à un écoulement de Couette plan. Dans cette situation hors d'équilibre, les fluctuations thermiques de l'interface sont modifiées en raison du couplage par le cisaillement entre les effets visqueux et les effets de tension. Comme c'est le cas pour d'autres systèmes de matière molle (par exemple, les phases lamellaires), le cisaillement peut alors amplifier ou amortir les déformations interfaciales. On s'intéresse tout d'abord à la dynamique des fluctuations interfaciales. On montre que ces dernières vérifient une équation stochastique non-linéaire, dont la solution est contrôlée par un paramètre sans dimension qui contient toute l'information sur le système. La résolution à faible taux de cisaillement révèle que le déplacement quadratique moyen des fluctuations thermiques diminue avec l'écoulement, conformément aux observations expérimentales et numériques. Ensuite, on étudie l'influence des effets inertiels sur la stabilité de l'écoulement, dans le régime des fortes viscosités et des faibles tensions. Ce régime des grands nombres capillaires n'a été que très peu étudié, mais trouve sa pertinence par exemple dans les mélanges biphasiques de colloïdes et de polymères. Des critères de stabilité simples sont mis en évidence. Finalement, on réalise une étude numérique des propriétés des fluctuations interfaciales à grand cisaillement. Bien que les effets visqueux soient dominants, il en ressort une phénoménologie similaire à certains modèles de turbulence.
APA, Harvard, Vancouver, ISO, and other styles
26

Marchand, Muriel. "Propriétés statistiques des petites structures dans les écoulements turbulents : influence du nombre de Reynolds sur l'intermittence." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0138.

Full text
Abstract:
Une etude experimentale du champ de vitesse et de temperature (consideree comme un scalaire passif) a ete realisee dans divers ecoulements pleinement turbulents (jet, turbulence de grille, soufflerie s1 de l'onera), pour une large gamme de nombres de reynolds. En ce qui concerne la vitesse, des outils statistiques tels que la representation spectrale de l'energie, les densites de probabilite globales et conditionnelles, ou les moments des fonctions de structure, ont permis de mettre en evidence le role determinant du taux de transfert d'energie dans l'intermittence en turbulence tridimensionnelle. Une nouvelle representation, log-similaire, a ete proposee, afin de quantifier le niveau d'intermittence d'un ecoulement turbulent. Cette representation universelle c'est-a-dire valable quel que soit le type de l'ecoulement et son nombre de reynolds qui est incompatible avec l'existence de lois d'echelles absolues, est en bon accord avec les predictions de l'approche variationnelle de la turbulence. En ce qui concerne le champ de temperature, les donnees experimentales indiquent clairement que les proprietes statistiques de ce scalaire different de celles de la vitesse. En particulier, les densites de probabilite globales et conditionnelles montrent que, d'une part, la distribution de ce scalaire est quasi-exponentielle en l'absence d'un gradient longitudinal de temperature et d'autre part, l'intermittence se manifeste de facon plus complexe que pour la vitesse, faisant intervenir le taux de transfert de la variance de temperature
APA, Harvard, Vancouver, ISO, and other styles
27

Oon, Shea Ming. "Construction des suites binaires pseudo-aléatoires." Nancy 1, 2005. http://docnum.univ-lorraine.fr/public/SCD_T_2005_0017_OON.pdf.

Full text
Abstract:
Cette thèse porte sur la construction de certaines suites pseudo-aléatoires inspirées par les questions naturelles en théorie des nombres. Nous utilisons les deux principales mesures introduites par A. Sárközy et C. Mauduit, à savoir la mesure de bonne distribution et la mesure de corrélation de l'ordre k pour étudier quelques aspects des tests a priori de ces suites. Grâce à des résultats dus à A. Weil, certains caractères de Dirichlet fournissent une large famille d'exemples de constructions intéressantes. En revanche, l'étude de la distribution des plus grands facteurs ne nous donne pas une estimation suffisamment exploitable. Cependant, on constate numériquement qu'il y a un biais sur certaines classes de facteurs premiers. On discute aussi quelques aspects probabilistes de ces mesures. On présente également une brève histoire sur le thème du hasard. Certains sujets relatifs à la cryptologie sont aussi rappelés dans une annexe
This thesis presents some constructions of pseudo-random sequences inspired by natural questions in number theory. We use two measures introduced by A. Sárközy et C. Mauduit to discuss some aspects of a priori testing of these sequences. They are the well-distribution measure and correlation measure of order k. On the one hand, thanks to a work of A. Weil, some Dirichlet characters give a large family of interesting examples of constructions. On the other hand, our study on a construction based on the distribution of the greatest prime factors do not supply any sufficiently exploitable estimate. However, we observe the bias on some congruence classes of prime factors. We also discuss some probability aspects of both measures. A brief history on the randomness is presented to help better comprehension, as well as some subjects in cryptology which are given in an appendix
APA, Harvard, Vancouver, ISO, and other styles
28

Hupe, Philippe. "Algorithmes biostatistiques pour les données omiques en oncologie : application à l'étude du nombre de copies d'ADN à partir des expériences de microarray." Paris, AgroParisTech, 2008. http://www.theses.fr/2008AGPT0069.

Full text
Abstract:
Le cancer est une cause principale de décès et d'importants eorts doivent être réalisés pour vaincre la maladie. La technologie des microarrays est un puissant outil de recherche en oncologie pour comprendre les mécanismes de la progression tumorale qui est due à une perturbation de la régulation des gènes. Par conséquent, l'étude de leur niveau d'expression dans les tumeurs offre une perspective pour comprendre les mécanismes biologiques de la maladie et identier de nouveaux facteurs pronostiques et prédictifs qui aideront le clinicien à choisir la thérapie de chaque patients. Par ailleurs, les tumeurs présentent un changement du nombre de copies d'ADN dont la quantication est aussi possible par microarray. L'utilisation des données de microarray nécessite un traitement statistique approprié permettant de transformer les données brutes en données interprétables biologiquement et cliniquement. Ainsi, nous avons développé des méthodes statistiques qui visent à normaliser et extraire l'information biologique issue des microarrays dédiés à l'étude du nombre de copies d'ADN des tumeurs. Nos méthodes ont permis la caractérisation des tumeurs de haut-risque métastatique dans le mélanome uvéal. Par ailleurs, un des enjeux de l'analyse biostatistique des données de microarrays consiste en l'analyse intégrée de différents types de prols moléculaires. Ainsi, une méthode statistique qui combine les données d'expression de gènes et du nombre de copie d'ADN obtenues par microarrays a été développée dans un contexte de classication supervisée. Les propriétés statistiques de la méthode ont été étudiées et ses performances estimées sur des données simulées et réelles.
APA, Harvard, Vancouver, ISO, and other styles
29

Saussay, Gabriel. "Statistiques de cyclicité des variétés Jacobiennes de dimension 2, définies sur Fp : étude pour quelques valeurs du nombre premier P." Antilles-Guyane, 2007. http://www.theses.fr/2007AGUY0176.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à la problématique suivante : à partir d'un polynôme de degré 4, prouver l'existence d'une variété abélienne associée, puis assurer l'existence d'une variété Jacobienne associée et enfin étudier la cyclicité d'une telle variété. Soit q une puissance d'un nombre premier p et A une variété abélienne de dimensIon 2 sur un corps fini k à p éléments, L'idée forte es de caractériser A par un couple (a1,a2) et de décomposer l'étude en trois groupes, (M), (O) et SS. Nous obtenons une condition nécessaire et suffisante pour l'existence d'une variété Jacobienne dans le cas (0) et d'une condition suffisante d'une grande efficacité dans le cas(M). Nous montrons que le cas(SS) ne convient pas pour le problème de l'existence d'une variété Jacobienne. Cependant, l'étude de la cyclicité dans ce cas est entièrement déterminée. Nous terminons par la résolution de notre problématique pour quelques valeurs du nombre premier p
Ln this thesîs we interested ourselves to the following problematic : to prove, from a degree 4 polynomial the existence of an associated Abellan variety and the existence of an associated Jacobian variety and finally study the cyclicity of such a variety. Let q be 2 power of a prime number p and A an Abelian varîety of dimension 2 over the finite field with p elements k. The main idea is to caracterize. A by a couple (a1,a2) and to split the study in 3 groups, (M), (0) and(SS), We give a necessary and sufficient condition to be a Jacobian variety in the case (0) and a very effective sufficient condition in the case (M). We show that the case (SS) is unable to solve such a problem. However, the study of cyclicity in this case is solved. We conclude by solving our problematic for several values of p, Keywords : simple Abelian surface, absolutely simple Abelian surface, Jacobian Variety, finite field
APA, Harvard, Vancouver, ISO, and other styles
30

Santoro, Renaud. "Vers des générateurs de nombres aléatoires uniformes et gaussiens à très haut débit." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00438600.

Full text
Abstract:
L'objectif d'un générateur de nombres aléatoires (RNG) est de produire une séquence binaire aléatoire indépendante, imprédictible et uniformément répartie. Les RNG sont nécessaires dans toutes sortes d'applications telles que la cryptographie, les télécommunications, les simulations numériques, le test de circuits VLSI ou encore les algorithmes probabilistes. Ainsi, le nombre d'applications embarquées nécessitant des RNG matériels augmente constamment, spécialement au sein des circuits reconfigurables. En vue de la conception matérielle d'un RNG, la solution est d'utiliser un générateur hybride composé d'un générateur vraiment aléatoire (TRNG) et d'un générateur pseudo-aléatoire (PRNG). Prouver mathématiquement qu'un générateur est aléatoire est généralement difficile, voire impossible. Les RNG sont souvent évalués via des tests statistiques. L'évaluation d'un TRNG est beaucoup plus complexe que celle d'un PRNG car la qualité d'un TRNG est fonction de la source de bruit utilisée, de l'environnement extérieur et de la qualité d'im- plantation au sein du circuit ciblé. Fischer et al. [FD03] ont proposé l'un des premiers TRNG totalement implantable au sein d'un circuit FPGA. Depuis, un grand nombre générateurs a été présenté dans la littérature. Un des objectifs de cette thèse a été de proposer une méthodologie objective analysant la qualité des TRNG sélectionnés au sein de circuits reconfigurables. La méthode d'évaluation, rapide et efficace est basée sur l'utilisation de tests statistiques matériels proposés par l'AIS 31 [AIS01]. L'intérêt de la méthode est d'évaluer les TRNG au sein du même circuit FPGA afin d'analyser ceux-ci dans des conditions similaires d'uti- lisation. La version matérielle de l'AIS 31 permet d'évaluer des TRNG présentant un débit maximal de 84.2 Mbits/s. Le coût matériel de celle-ci est de 4042 LUT, soit environ 10% d'un FPGA Xilinx Virtex 5 SX50. La méthode proposée permet de trouver facilement le débit optimal des TRNG au sein d'un circuit reconfigurable. Ainsi, l'intérêt d'une pré-caractérisation du fonctionnement d'un TRNG est prouvé. À partir de l'étude précédente, un TRNG est sélectionné pour ses propriétés statistiques. Une architecture de générateur hybride permettant de produire des nombres aléatoires uniformes à très haut débit est ensuite proposée. Cependant, malgré la qualité du générateur sélectionné, l'aléa en sortie du TRNG peut varier au cours du temps à cause d'attaques externes possibles sur le circuit, de la variation des conditions extérieures ou encore du vieillissement des composants. La qualité aléatoire de la séquence de germes produite par un TRNG est primordiale pour assurer l'imprédictibilité d'un PRNG. Afin d'améliorer la robustesse d'un TRNG, des mécanismes de tests statistiques en ligne doivent être mis en oeuvre. Ainsi, une évaluation en temps réel du comportement du générateur est réalisée et les séquences défaillances générées par celui-ci sont évitées. Cette étude propose d'utiliser une implantation efficace de la batterie du FIPS 140-2. La surface négligeable du circuit au sein des FPGA actuels et les performances obtenues par le composant permettent de contrôler la qualité du TRNG sélectionné en temps réel. Un RNG hybride à très aut débit implanté sur une cible reconfigurable et au sein d'un circuit VLSI est proposé. L'étude menée sur le RNG hybride a débouché sur un partenariat industriel et un transfert de technologie vers une société spécialisée dans le domaine de de la sécurité. Dans certaines applications, il est parfois nécessaire de générer des nombres aléatoires suivant une distribution de probabilité différente d'une loi uniforme. À partir de l'utilisation du RNG hybride proposé, l'implantation d'un générateur de nombres aléatoires gaussiens à très haut débit est présenté. Par ailleurs, le circuit implanté permet de générer efficacement des nombres aléatoires suivant une loi de Rayleigh. Après sélection d'un excellent TRNG, un PRNG à débit très élevé est recherché. La structure parallèle des automates cellulaires fait de ces PRNG une architecture très intéressante en vue d'une implantation matérielle. La seconde partie de la thèse est consacrée à la recherche de la règle optimale d'un automate cellulaire à cinq voisins. Le chapitre étudie, entre autres, le coût matériel engendré par l'implantation de tests statistiques très performants.
APA, Harvard, Vancouver, ISO, and other styles
31

Benaid, Brahim. "Convergence en loi d'intégrales stochastiques et estimateurs des moindres carrés de certains modèles statistiques instables." Toulouse, INSA, 2001. http://www.theses.fr/2001ISAT0030.

Full text
Abstract:
La motivation de cette thèse est d'étudier les lois asymptotiques des estimateurs des moindres carrés des paramètres de certains modèles linéaires instables plus généraux que les AR considérés par Chan Wei (1988) et ARMA par Truong-Van et Larramendy (1996). Comme les statistiques définissant ces estimateurs peuvent être considérés comme des intégrales stochastiques discrètes, nous avons commence "par mettre en place un outil d'étude asymptotique" : L'étude de la convergence en loi de certaines intégrales stochastiques discrètes, d'une part en nous inspirant des résultats de Kurtz et Protter (1991) sur la convergence en loi de semi-martingales et d'autre part en introduisant une nouvelle technique d'approximation différente de celle classique par des martingales. On a appliqué ensuite ces résultats de convergence en distribution à l'étude des lois asymptotiques des estimateurs des moindres carrés des paramètres AR des modèles ARMAX(p,r,q) avec q>0 et IARCH purement instables
In many recent applications, statistics are under the form of discrete stochastic integrals. In this work, we establish a basic theorem on the convergence in distribution of a sequence of discrete stochastic integrals. This result extends earlier corresponding theorems in Chan & Wei (1988) and in Truong-van & Larramendy (1996). Its proof is not based on the classical martingale approximation technique, but from a derivation of Kurtz & Protter's theorem (1991) on the convergence in distribution of sequences of Itô stochastic integrals relative to two semi-martigales and another approximation technique. Furthermore, various applications to asymptotic statistics are also given, mainly those concerning least squares estimators for ARMAX(p,r,q) models and purely unstable integrated ARCH models
APA, Harvard, Vancouver, ISO, and other styles
32

Bin, Fazail Muhammad Najib. "Caractérisation de l’amortissement des structures complexes par la méthode de corrélation." Electronic Thesis or Diss., Compiègne, 2023. http://www.theses.fr/2023COMP2718.

Full text
Abstract:
Le travail de thèse porte sur la caractérisation de l’amortissement des structures complexes par la méthode de corrélation. Dans le premier chapitre, un état de l’art rassemblant de nombreuses méthodes de caractérisations locales et globales est présenté. Dans la deuxième partie du chapitre, les méthodes de mesures expérimentales de l’amortissement et un modèle analytique de référence sont abordés. Dans le deuxième chapitre, la méthode Inhomogeneous Wave Correlation (IWC) qui calcule la corrélation entre le champ de déplacement mesuré et une onde plane inhomogène est revisitée. Une nouvelle variante qui considère la décroissance exponentielle avec la distance du point d’excitation dans la formulation d’onde inhomogène est introduite. L’introduction de cette variante a pour but d’améliorer l’estimation de l’amortissement. La validité de la méthode proposée est étudiée numériquement sur des structures planes avec différents degrés de complexité. Les performances de la méthode en fonction la position du point d’excitation et de la taille de la fenêtre d’observation sont également étudiées. Un nouveau modèle de corrélation basé sur la fonction de Green permettant d’estimer les paramètres élastiques équivalents des structures complexes en fonction de l’angle de propagation est détaillé dans le troisième chapitre. Contrairement à la méthode IWC mentionnée ci-dessus, le champ de déplacement mesuré est désormais corrélé avec un modèle basé sur la fonction de Green. Cette dernière est plus adaptée pour décrire le champ proche du point d’excitation et offre plus de stabilité sur l’estimation de l’amortissement comparée aux méthodes précédentes. Plusieurs résultats, avec des données simulées et mesurées, sont comparés au modèle analytique et montrent la précision de cette technique pour estimer précisément l’amortissement des structures complexes en fonction de la fréquence et de l’angle de propagation des ondes. Dans la deuxième partie du chapitre, la performance de la méthode sur l’estimation de l’amortissement en fonction des différents points d’excitation est également étudiée et un filtre angulaire spatial est introduit pour améliorer le résultat. Dans le quatrième chapitre, la méthode des sources images qui a pour objectif d’améliorer l’estimation de l’amortissement en basses fréquences des structures faiblement amorties est introduite. Cette approche prend en compte les réflexions des ondes de flexion aux frontières. La performance de la méthode est étudiée sur deux types de conditions limites : bords simplement appuyés et bords libres. Le résultat est comparé à la méthode introduite dans le troisième chapitre ainsi qu’au modèle analytique GLM
The thesis presents inverse correlation techniques able to measure accurately the damping loss factor of complex plane structures. In the first chapter, the state of the art gathering numerous local and global characterization methods is presented. In the second part of the chapter, various topics of direct interest to the thesis such as classical damping loss factor measurement techniques and the analytical solution based on the discrete general laminate model (GLM) are briefly discussed. In the second chapter, the inhomogeneous wave correlation (IWC) method based on the maximization of the correlation between an inhomogeneous wave and the measured displacement field as a function of the wave heading angle is revisited. A new variant that considers the exponential decay with distance from the excitation point in the inhomogeneous wave formulation is introduced. The purpose of introducing this variant is to improve the estimation of the damping loss factor. The validity of the proposed method is investigated numerically on flat thin structures and sandwich damped structures. The performance of the method related to the excitation point location and the size of the observation window are also investigated. A new Green’s function-based model correlation (GFC) method able to estimate the equivalent elastic parameters of complex structures at different propagation angles is detailed in the third chapter. Contrary to the IWC method, the measured displacement field is correlated with a Green’s function-based model. This approach is more adapted to describe the field near the excitation point and offers more stability in estimating the damping loss factor compared to previous methods. Several results, with simulated and measured data, are compared with an analytical discrete laminate model and show the accuracy of this technique to recover the damping loss factor of complex structures as function of the frequency and the heading angle. In the second part of the chapter, the impact of different excitation location on the estimation of the wavenumber and the damping loss factor is investigated. A spatial angular filter to rectify the estimation of the damping loss factor is introduced. In the fourth chapter, the image source method with an objective of improving the previous GFC method in the low frequency range and for lightly damped structures is introduced. The proposed method takes into account the reflection at boundaries which is, ignored in the free field Green’s function used in the previous chapter. The performance of the method is investigated for two types of boundary conditions: simply supported and free edges. The identified parameters of the numerical simulations are compared to the previous GFC method and to the analytical discrete laminate model
APA, Harvard, Vancouver, ISO, and other styles
33

Soucarros, Mathilde. "Analyse des générateurs de nombres aléatoires dans des conditions anormales d'utilisation." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00759976.

Full text
Abstract:
Les nombres aléatoires ont été de tous temps utilisés pour des jeux de hasard, plus récemment pour créer des codes secrets et ils sont aujourd'hui nécessaire à l'exécution de programmes informatiques. Les générateurs de nombres aléatoires sont maintenant bien éloignés de simples dés à lancer et sont constitués de circuits électroniques ou d'algorithmes. Ceci pose des problèmes quant à la reconnaissance du caractère aléatoire des nombres générés. De plus, de la même manière ou autrefois les dés étaient pipés pour augmenter les chances de gagner, il est aujourd'hui possible d'influencer la sortie des générateurs de nombres aléatoires. Ce sujet est donc toujours d'actualité avec des exemples récents très médiatisés. Ceci concernait en effet la console de jeu PS3 qui génère un nombre aléatoire constant où la distribution de clefs secrètes redondantes sur internet. Ce mémoire présente l'étude de plusieurs générateurs ainsi que diverses manières de les perturber. Il montre ainsi des faiblesses inhérentes à leurs conceptions et des conséquences possibles de leur défaillance sur des composants de sécurité. Ces travaux ont de plus permis de mettre en évidence l'importance des problématiques concernant le test des nombres aléatoires ainsi que des retraitements corrigeant des biais dans ces nombres.
APA, Harvard, Vancouver, ISO, and other styles
34

Auriault, Claire. "Intermittence en turbulence 3D : statistiques de la température et de son transfert." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10112.

Full text
Abstract:
Ce memoire porte sur l'etude experimentale de l'intermittence de la temperature en tant que scalaire passif, sur une large gamme de nombres de reynolds, dans des ecoulements pleinement turbulents. Ce travail est motive par l'absence de theorie permettant de prendre en compte la dynamique du scalaire passif en turbulence tridimensionnelle ainsi que par la difficulte de modeliser numeriquement le melange du scalaire, faute de connaitre les mecanismes qui generent son intermittence a petite echelle. Nous utilisons les techniques d'anemometrie a fils chauds et froids pour mesurer simultanement la composante longitudinale de la vitesse et la temperature dans differentes configurations : jet axisymetrique et ecoulement de soufflerie a tres grand nombre de reynolds. A partir de ces mesures, nous faisons une etude statistique pour examiner le champ de temperature et ses caracteristiques en fonction des conditions d'experiences. Tout d'abord, nous menons une etude statistique classique du scalaire : l'evolution de la forme des spectres et des densites de probabilite ainsi que l'isotropie locale sont etudiees par rapport au type d'ecoulement et aux conditions d'injection de la temperature et commentes en fonction de la litterature sur le sujet. Nous nous interessons ensuite plus particulierement a l'intermittence du scalaire passif. Nous commencons par montrer l'inexistance de lois d'echelles pour la temperature et son transfert. La technique d'autosimilarite etendue ne nous apportant aucune information quantitative sur l'intermittence du scalaire, celle-ci est etudiee de maniere pertinente grace a l'analyse par les cumulants. Nous montrons qu'elle depend non seulement du type d'ecoulement, mais aussi, pour un ecoulement donne, des conditions d'experiences. Plus precisement, cette analyse permet de quantifier l'influence des conditions a grande echelle et de mettre en evidence la dependance de l'intermittence du scalaire en fonction du nombre de reynolds.
APA, Harvard, Vancouver, ISO, and other styles
35

Benarafa, Younes. "Application du couplage RANS / LES aux écoulements turbulents à haut nombre de Reynolds de l'industrie nucléaire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00011371.

Full text
Abstract:
La difficulté principale de réaliser la simulation numérique d'un écoulement turbulent à haut nombre de Reynolds est de préserver la capture des effets instationnaires sans induire un coût de calcul prohibitif. Nous avons, tout d'abord, exhibé les principaux défauts des simulations des grandes échelles avec un modèle de paroi standard dans une configuration de canal plan bi-périodique dans un contexte de maillage grossier. Dans ce cadre, nous avons proposé deux approches basées sur une stratégie de couplage RANS/LES pour corriger pour corriger ces défauts. La première repose sur l'application du modèle de paroi TBLE à une simulations des grandes échelles, qui consiste à résoudre des équations de couche limite simplifiées et instationnaires avec une modélisation de type RANS dans la zone proche paroi. La seconde consiste à réaliser simultanément un calcul RANS et une simulation des grandes échelles dont le champ filtré moyen sera corrigé grâce au calcul RANS par l'intermédiaire d'un terme de forçage. Ces différentes méthodes de modélisations ont été implémentéesdanns le code de calcul TRIO_U du CEA Grenoble. Les configurations étudiées sont le canal plan bi-périodique et un écoulement pariétal dans une matrice d'obstacles cubiques. Les deux approches fournissent des résultats encourageants et permettent d'effectuer des simulations instationnaires à un coût numérique réduit.
APA, Harvard, Vancouver, ISO, and other styles
36

Mammasse, Nadra. "Le nombre de sujets dans les panels d'analyse sensorielle : une approche base de données." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00764952.

Full text
Abstract:
Le nombre de sujets du panel détermine en grande partie le coût des études descriptives et hédoniques de l'analyse sensorielle. Une fois les risques α et β fixés, ce nombre peut théoriquement être calculé, dés lors que l'on connait la variabilité de la mesure due à l'hétérogénéité de la population visée et que l'on fixe la taille de la différence que l'on désire mettre en évidence. En général, l'ordre de grandeur du premier de ces paramètres est inconnu alors que celui du second est délicat à préciser pour l'expérimentateur. Ce travail propose une documentation systématique des valeurs prises dans la réalité par ces deux paramètres grâce à l'exploitation de deux bases de données, SensoBase et PrefBase, contenant respectivement un millier de jeux de données descriptives et quelques centaines de jeux de données hédoniques. Pratiquement, des recommandations pour la taille de panel sont établies sous forme d'abaques prenant en compte trois niveaux pour chacun des deux risques et des deux paramètres.D'autre part, ce travail étudie le nombre de sujets dans chacun des deux types de panel par une approche de ré-échantillonnage qui consiste à réduire progressivement le nombre de sujets tant que les résultats de l'analyse statistique demeurent stables. En moyenne, la taille des panels descriptifs pourrait être réduite d'un quart du nombre de sujets, mais cette moyenne cache une forte hétérogénéité selon le type de descripteurs considéré. La taille optimale des panels hédoniques serait elle très variable et cette variabilité est induite beaucoup plus par la nature et l'importance des différences entre les produits que par l'hétérogénéité des préférences individuelles. De plus, une même approche de ré-échantillonnage appliquée aux répétitions en tests descriptifs suggère que les répétitions ne sont plus nécessaires en phase de mesure, c'est-à-dire une fois le panel entraîné
APA, Harvard, Vancouver, ISO, and other styles
37

Ansart, Séverine. "La réévaluation de la pandémie grippale de 1918." Paris 6, 2009. http://www.theses.fr/2009PA066725.

Full text
Abstract:
Cette thèse est une tentative de synthèse des paramètres épidémiologiques de cette pandémie. Nous avons réévalué la mortalité dans 14 pays européens pendant la pandémie de 1918, à l’aide d’un support informatique en ligne. Nous avons estimé l’excès de mortalité en Europe pendant la pandémie de 1918 à 2,64 millions de décès (1,1% de la population européenne). Il était trouvé un gradient Nord Sud de l’excès de mortalité, les pays du sud expérimentant un excès de mortalité plus élevé que les pays du Nord. Il existait une importante synchronie entre les différents pays, ceci plaidant contre une origine européenne de la pandémie. Dans la seconde partie de ce travail, nous avons réalisé une synthèse des études apportant des données originales pour l’estimation de l’intervalle de génération et du nombre de reproduction au cours des pandémies grippales. Nous avons estimé l’intervalle sériel moyen à partir de 8 études en foyer entre 2,8 et 3,3 jours au cours des années pandémiques. Nous avons estimé le nombre de reproduction à 1,6 (1,5 –1,7) pendant la pandémie de 1918. Des intervalles de génération courts sont donc caractéristiques de la grippe, conduisant à un nombre de reproduction, estimé à partir de l’analyse du taux de croissance épidémique, inférieur à 2.
APA, Harvard, Vancouver, ISO, and other styles
38

Naert, Antoine. "Turbulence dans un jet d'hélium gazeux à basse température." Université Joseph Fourier (Grenoble ; 1971-2015), 1995. http://www.theses.fr/1995GRE10009.

Full text
Abstract:
Il est apparu recemment que la turbulence accessible a l'experience pouvait ne pas avoir atteint, meme aux plus grand nombres de reynolds (re), un regime ultime (reynolds infini) qui avait jusque-la fait l'objet de predictions theoriques. L'experience presentee ici est un jet d'helium gazeux a 4,2 k. A cette temperature proche de la temperature critique, modifier la pression du fluide permet de faire varier la viscosite, et donc le reynolds sur une large gamme (re=10#3 a 10#5) sans que la geometrie de l'ecoulement ne soit modifiee. Nous mesurons avec une haute resolution statistique les fluctuations de vitesse dans cet ecoulement grace a un anemometre cryogenique base sur le principe du fil chaud. La statistique non-gaussienne, intermittente, des increments de vitesse est analysee comme une superposition de statistiques elementaires, quasi-gaussiennes. L'unique parametre caracterisant ce melange de regimes purs de la turbulence est appele profondeur de la cascade. Il est mesure et etudie en detail en fonction de l'echelle et du nombre de reynolds. Une etude des histogrammes conditionnels permet de controler la pertinence cette methode d'analyse. La large gamme de reynolds accessibles a la mesure nous a permis de mettre en evidence une transition (a re 5000) entre deux regimes distincts de la turbulence : turbulence douce et turbulence dure.
APA, Harvard, Vancouver, ISO, and other styles
39

Prieur, Clementine. "APPLICATIONS STATISTIQUES DE SUITES FAIBLEMENT DEPENDANTES ET DE SYSTEMES DYNAMIQUES." Phd thesis, Université de Cergy Pontoise, 2001. http://tel.archives-ouvertes.fr/tel-00001436.

Full text
Abstract:
Cette thèse porte sur l'étude
d'applications statistiques de suites dépendantes et
stationnaires. Nous étudions deux classes de suites
dépendantes. Nous nous intéressons d'une part à des suites
faiblement dépendantes, où notre notion de dépendance faible est
une variante de la notion introduite par Doukhan \& Louhichi, d'autre part à certains systèmes dynamiques
présentant une propriété de décroissance des
corrélations. Nous traitons du comportement asymptotique du
processus empirique, fondamental en statistiques. Nous étudions
aussi un estimateur à noyau de la densité dans nos deux cadres de
dépendance. Enfin, nous nous intéressons à un problème de
rupture d'une fonction de régression en dépendance faible. A ces
fins, nous développons des idées de Rio pour montrer un
théorème limite centrale en dépendance faible, ainsi que des
nouvelles inégalités de moments qui étendent celles de Louhichi. Enfin, nous illustrons certains de nos résultats par des
simulations.
APA, Harvard, Vancouver, ISO, and other styles
40

Shawket, Zaid Esmat. "Propriétés arithmétiques et statistiques des fonctions digitales restreintes." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22059.

Full text
Abstract:
Dans ce travail nous étudions les propriétés arithmétiques et statistiques d'une nouvelle classe de fonctions de comptage des chiffres appelées fonctions digitales restreintes. Nous présentons tout d'abord les principales propriétés des suites engendrées par une substitution ou un $q$-automate ainsi que la suite célèbre de Thue-Morse et ses généralisations, puis nous comparons ces notions avec celle de fonction digitale restreinte.Nous étudions ensuite les sommes d'exponentielles associées à ces fonctions digitales restreintes ainsi que leur application d'une part à l'étude de la répartition modulo 1 des fonctions digitales restreintes et d'autre part à l'étude des propriétés statistiques des suites arithmétiques définies par des fonctions digitales restreintes.Dans la dernière partie de ce travail on étudie la représentation géométrique de ces sommes d'exponentielle à la lumière des travaux antérieurs de Dekking et Mendès-France ce qui nous conduit à énoncer plusieurs problèmes ouverts
In this work we study the arithmetic and statistic properties of a new class of digital counting functions called restricted digital functions. We first present the main properties of sequences generated by a substitution or a $q$-automate followed by presenting the famous Thue-Morse sequence and its generalizations, then we compare these notions with the one of the restricted digital function.We then study the exponential sums associated with these restricted digital function and their implementation on the one hand to the study of uniform distribution modulo 1 of these restricted digital functions and on the other, to the study of the statistical properties of the arithmetic sequences defined by restricted digital functions.In the last part of this work we study the geometric representation of these exponential sums in the light of previous works of Dekking and Mendès-France which leads us to announce several open problems
APA, Harvard, Vancouver, ISO, and other styles
41

Dimby, Solohaja Faniaha. "Détection d'outliers : modéllsation et prédiction : application aux données de véhicules d'occasion." Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010025/document.

Full text
Abstract:
La société Autobiz édite et diffuse de l’information sur le secteur automobile. Cette thèse contribue à l’enrichissement de cette information et à une meilleure compréhension du marché de l’occasion par l’élaboration des modèles de prédiction du prix des véhicules et du délai de vente qui leur est associé. Nous avons eu à notre disposition une base de données réelles constituée d’annonces de sources diverses induisant un nombre considérable d’outliers. Ainsi, la première partie de travail s’est consacrée à la construction de méthodes de détection d’outliers incluant aussi bien de simples règles empiriques qu’un test statistique dont les propriétés asymptotiques ont été étudiées. Partant d’un état de l’art sur la prédiction des prix des véhicules d’occasion, il est apparu que les études existantes soulèvent le besoin de fonder une méthodologie d’analyse plus rigoureuse. Cette méthodologie a été développée dans un objectif de proposer des solutions automatisables et adaptées aux contraintes imposées par les experts. Nous faisons alors l’hypothèse que les prix des véhicules d’une même version se déprécient en fonction de l’âge et du kilométrage selon une forme qui lui est propre. La dernière partie du travail est dédiée à l’analyse des délais de vente. Dans un premier temps, nous caractérisons la variable associée aux délais de vente. Ensuite nous proposons une modélisation de cette variable par une régression à l’échelle d’un segment correspondant à l’arborescence marque-modèle-carrosserie-énergie en fonction des variables liées au kilométrage, au prix et à l’âge. Enfin, nous discutons de la possibilité de modéliser le nombre de véhicules vendus dans une période donnée selon une loi binomiale négative
Autobiz publishes information on the automotive sector. The subject of this the-sis is to give more tools for best understanding the used cars market by proposing modeling the price and the sale duration of vehicles. In our disposal we have a dataset consisted of used car advertisements automatically collected from the most popular website in France. Such data records often include outlying values. So, we need to start our analysis by considering outliers problem and we propose an outliers detector for univariate case for which we study asymptotic properties. Next, we develop a predicting model for used cars price. Although enumerable amount of works are stored in the literature we see that each of them lacks rigorous statistical foundations. We investigate the relationships between the price, the mileage, the age and others vehicle characteristics. More precisely we discuss how incorporate these variables in a model and compare different modeling approaches with the object to find the one best fitting the dataset and easy to implement. Expert’s opinions are minded at different stages of the model-building process. Next, we identify variables and how they affect the probability of a used vehicle’s sale from a list of explanatory variables related to price, mileage and age. In the sequel, we build a model allowing predicting the sale duration. Finally, we discuss about modeling sales of used cars by using the negative binomial distribution
APA, Harvard, Vancouver, ISO, and other styles
42

Malécot, Yann. "Intermittence en turbulence 3D : statistiques de la vitesse et de la vorticité." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10177.

Full text
Abstract:
Cette these est une etude experimentale de la turbulence 3d, effectuee dans differentes configurations : turbulence de grille, turbulence de jet et turbulence de soufflerie a tres grand nombre de reynolds. Elle s'attache a caracteriser precisement l'intermittence des ecoulements turbulents, d'une part, d'un point de vue statistique, d'autre part, d'un point de vue structurel. Plusieurs lois, qui concernent en particulier l'universalite de la turbulence, en sont deduites.
APA, Harvard, Vancouver, ISO, and other styles
43

Tranchita, Rativa Leidy Carolina. "Evaluation du risque pour la sécurité des réseaux électrique face aux événements intentionnels." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0168.

Full text
Abstract:
Les réseaux électriques sont des infrastructures critiques fortement interconnectées et dépendantes d’autres infrastructures essentielles pour assurer diverses activités humaines. Compte tenu ce rôle clef, le secteur électrique est, et continuera à l’être, une cible privilégiée pour les groupes terroristes. Cette thèse présente une méthode basée sur l’évaluation du risque, ce qui permet aux exploitants et aux planificateurs d’estimer la sécurité du réseau en considérant l’occurrence d’actes malveillants. L’utilisation de l’inférence probabiliste et de la théorie de la possibilité, permet de prendre en considération les incertitudes liées à la dynamique terroriste ainsi que les incertitudes dues aux prévisions de charge et de production. Nous avons aussi étendu notre méthodologie aux actes de malveillance liés aux cyberattaques sur les systèmes de communication du réseau électrique qui peuvent affecter la sécurité de ce dernier. Les méthodes sont testées avec des réseaux test standards, en prenant comme exemple l’expérience de l’infrastructure électrique Colombienne, fortement menacée par les attaques terroristes
Power systems are critical infrastructures which highly interconnected and interdependent on other basic infrastructures on which human activities depend. Because of this relevance, the electricity sector is a target of terrorist groups. Contingencies resulting from terrorism must be taken into consideration when assessing security. This thesis presents a method based on the evaluation of risk, which enables operators and planners to assess the power system security with regard to possible terrorist acts. By using probabilistic inference and theory of possibilities, we consider the uncertainty associated with the dynamic of terrorism and the uncertainty associated to load and generation forecasting. We take into account potential cyberattacks on the communication system of the power system, which can affect the security as a whole
APA, Harvard, Vancouver, ISO, and other styles
44

Gelineau, Yoann. "Études combinatoires des nombres de Jacobi-Stirling et d’Entringer." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10156/document.

Full text
Abstract:
Cette thèse se divise en 2 grandes parties indépendantes ; la première traitant des nombres de Jacobi-Stirling, la seconde abordant les nombres d’Entringer. La première partie introduit les nombres de Jacobi-Stirling de seconde et de première espèce comme coefficients algébriques dans des relations polynomiales. Nous donnons des interprétations combinatoires de ces nombres, en termes de partitions d’ensembles et de quasi-permutations pour les nombres de seconde espèce, et en termes de permutations pour les nombres de première espèce. Nous étudions également les fonctions génératrices diagonales de ces familles de nombres, ainsi qu’une de leur généralisation sur le modèle des r-nombres de Stirling. La seconde partie introduit les nombres d’Entringer à l’aide de leur interprétation en termes de permutations alternantes. Nous étudions les différentes formules de récurrence vérifiées par ces nombres et généralisons ces résultats à l’aide d’un q-analogue utilisant la statistique d’inversion. Nous verrons également que ces résultats peuvent être étendus à des permutations de forme donnée quelconque. Enfin, nous définissons la notion de famille d’Entringer, et établissons des bijections entre certaines de ces familles. En particulier, nous établissons une bijection reliant les permutations alternantes de premier terme fixé, aux arbres binaires croissants dont l’extrémité du chemin minimal est fixée
This thesis is constructed in two main independant parts ; the first one dealing with the numbers of Jacobi-Stirling, the second one tackling the numbers of Entringer. The first part introduces the numbers of Jacobi-Stirling of the second kind and of the first kind, as algebraic coefficients in some polynomial relations. We give some combinatorial interpretations of these numbers, in terms of set partitions and quasi-permutations for the numbers of the second kind, and in terms of permutations for the numbers of the first kind. We also study the diagonal generating functions of these sequences of numbers, and one of their generalization based on the model of r-Stirling numbers. The second part introduces the numbers of Entringer with their interpretation in terms of alternating permutations. We study the different recurrences formulas satisfied by these numbers, and refine these results with a q-analogue using the inversion statistic. We also note that these results can be extend to permutations with any fixed shape. Finally, we define the notion of Entringer family, and provide bijections between some of these families. In particular, we establish a bijection between the alternating permutations with fixed given value, and the binary increasing trees such that the end-point of the minimal path is fixed
APA, Harvard, Vancouver, ISO, and other styles
45

Bernard, Damien. "Statistique des zéros non-triviaux de fonctions L de formes modulaires." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00922713.

Full text
Abstract:
Cette thèse se propose d'obtenir des résultats statistiques sur les zéros non-triviaux de fonctions L. Dans le cas des fonctions L de formes modulaires, on prouve qu'une proportion positive explicite de zéros non-triviaux se situe sur la droite critique. Afin d'arriver à ce résultat, il nous faut préalablement étendre un théorème sur les problèmes de convolution avec décalage additif en moyenne de manière à déterminer le comportement asymptotique du second moment intégral ramolli d'une fonction L de forme modulaire au voisinage de la droite critique. Une autre partie de cette thèse, indépendante de la précédente, est consacrée à l'étude du plus petit zéro non-trivial d'une famille de fonctions L. Ces résultats sont en particulier appliqués aux fonctions L de puissance symétrique.
APA, Harvard, Vancouver, ISO, and other styles
46

Ben, Romdhane Molka. "Modélisation, implémentation et caractérisation de circuits générateurs de nombres aléatoires vrais pour la certification de crypto-processeurs." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0055/document.

Full text
Abstract:
Les nombres aléatoires sont indispensables dans de nombreuses applications notamment en cryptographie où l’aléa est utilisé dans les protocoles de sécurité. Les générateurs de nombres aléatoires, plus connus sous le nom de RNG comme “Random Number Generator” se déclinent en deux familles, les PRNG (Pseudo RNG) qui sont des générateurs de nombres aléatoires ayant des séquences déterministes et les TRNG (True RNG) qui sont des générateurs d’aléa “vrai”, donc non prédictibles. Les applications cryptographiques utilisent à la fois les TRNG et les PRNG. Un PRNG nécessite une valeur initiale, ou graine, qui peut être la sortie d’un TRNG. Les TRNG tirent profit de l’aléa des phénomènes physiques. Les TRNGs dans les technologies numériques comme les FPGAs font appel à des oscillateurs qui présentent l’inconvénient de pouvoir être attaqués par couplage harmonique. De façon à évaluer la qualité entropique d’un TRNG, des standards basés sur des tests statistiques ont été élaborés par des organismes de certification comme le NIST ou la BSI. Cependant, il est recommandé de formaliser, par le biais d’un modèle, le caractère stochastique de la génération d’aléa. Dans cette thèse, nous étudions une architecture de TRNG, peu coûteuse et robuste face aux attaques harmoniques car elle n’utilise pas d’oscillateurs. Ce TRNG extrait une variable aléatoire en exploitant à la fois les états métastables des bascules et les fluctuations temporelles (ou gigue) des signaux échantillonnés. Nous proposons par la suite un modèle stochastique qui nous permet de décrire le comportement aléatoire du TRNG indépendamment de la technologie ciblée. Les caractérisations et évaluations sur des circuits prototypes en technologies FPGA et ASIC montrent que l’architecture TRNG proposée génère de l’aléa de qualité et est robuste face aux variations environnementales
Random numbers are required in numerous applications namely in cryptography where randomness is used in security protocols. There are two main classes of Random Number Generators (RNG) : The Pseudo RNG (PRNG) which have a deterministic sequence, and the True RNG (TRNG) which generates unpredictable random numbers. Cryptographic applications use both TRNG and PRNG. The PRNG needs an initial value, or seed, which can be the output of a TRNG. In digital technologies, like FPGAs, TRNG are commonly based on oscillators which have the drawback of being biased by harmonic coupling. In order to assess the entropic quality of TRNGs, standards based on statistical tests have been elaborated by certification organisms namely the NIST and the BSI. However, it is recommended to formalize the stochastic behaviour of the randomness generation process. In this Ph.D, we address the design and quality evaluation of TRNGs in digital circuits. We study of a low-cost digital TRNG without oscillators, hence robust against harmonics attacks. The proposed TRNG exploits both the metastability phenomenon and the jitter noise in CMOS digital flip-flops to generate the random numbers. A stochastic model of this TRNG has been formalized. This model describes the random generation process regardless of the targeted technology. The characterization and evaluation on a prototype circuit, in FPGA and ASIC technologies, has shown that the proposed TRNG architecture generates randomness of good quality and is robust against environmental variations
APA, Harvard, Vancouver, ISO, and other styles
47

Mourier, Karine. "Réponse dynamique de structures mécaniques à paramètres imprécis." Valenciennes, 2008. https://ged.uphf.fr/nuxeo/site/esupversions/44095298-c83f-4ec5-9732-f888d5b193bf.

Full text
Abstract:
Les simulations sont de plus en plus performantes mais de nombreuses sources d’incertitudes, dues à la méconnaissance des paramètres endogènes ou exogènes, entachent la prédiction du comportement des structures. Fort de ce constat, des approches sont développées afin de modéliser et propager ces imprécisions en assurant des coûts numériques raisonnables et une surestimation limitée. La théorie des sous-ensembles flous est ainsi exploitée pour traiter deux problèmes de complexité croissante. Une approche mixte est mise en place afin de calculer la réponse harmonique floue d’un système mécanique dont les paramètres modaux et les forces sont incertains. Une analyse fonctionnelle permet de définir les combinaisons utiles pour effectuer ensuite un calcul par le principe de superposition modale. Les coûts de calculs sont ainsi significativement réduits. La deuxième partie de ces travaux traite de l’évaluation de la réponse dynamique temporelle de structures en contact comme par exemple les systèmes de freinage. Les incertitudes portent sur la loi de contact ainsi que sur les paramètres structuraux. Une méthodologie utilisant une approximation des solutions modifiées par une technique de projection, est étudiée. Les coûts sont limités par la réduction des combinaisons de paramètres et le calcul des solutions dans une base réduite. Son application sur un exemple de contact normal montre l’efficacité de la méthodologie. L’ensemble de ces travaux prospectifs permet de mettre en évidence les différentes voies de recherche à envisager
Numerical simulations are more and more efficient but many sources of uncertainties distort structures behaviour prediction. Uncertainties are due to a lack of knowledge of the endogenous or exogenous parameters. Consequently, different methods are developed in order to model and propagate imprecision, maintaining reasonable numeric costs and limited overestimation. The fuzzy set theory is thus exploited in order to treat two problems with growing complexity. In the first part, a mixed approach is developed to calculate the fuzzy harmonic response of a mechanical system with uncertain modal parameters and forces. A functional analysis allows to define the useful combinations for the calculation by modal superposition principle. Computational costs are also reduced significantly. The second part of this work is concerned with the evaluation of the transient response of structures in contact (e. G. Braking systems). Uncertainties deal with the contact law and structural parameters. An approach based on an approximation of the modified solutions by projection techniques, is studied. Costs are limited due to the reduction of parameters’ combination and the computation of solutions in a reduced basis. A numerical application on a normal contact test case shows the efficiency of the methodology. These prospective works allow to draw different investigation fields to consider
APA, Harvard, Vancouver, ISO, and other styles
48

Amri, Anis. "Autour de quelques statistiques sur les arbres binaires de recherche et sur les automates déterministes." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0301.

Full text
Abstract:
Cette thèse comporte deux parties indépendantes. Dans la première partie, nous nous intéressons à l’analyse asymptotique de quelques statistiques sur les arbres binaires de recherche (ABR). Dans la deuxième partie, nous nous intéressons à l’étude du problème du collectionneur de coupons impatient. Dans la première partie, en suivant le modèle introduit par Aguech, Lasmar et Mahmoud [Probab. Engrg. Inform. Sci. 21 (2007) 133—141], on définit la profondeur pondérée d’un nœud dans un arbre binaire enraciné étiqueté comme la somme de toutes les clés sur le chemin qui relie ce nœud à la racine. Nous analysons alors dans ABR, les profondeurs pondérées des nœuds avec des clés données, le dernier nœud inséré, les nœuds ordonnés selon le processus de recherche en profondeur, la profondeur pondérée des trajets, l’indice de Wiener pondéré et les profondeurs pondérées des nœuds avec au plus un enfant. Dans la deuxième partie, nous étudions la forme asymptotique de la courbe de la complétion de la collection conditionnée à T_n≤ (1+Λ), Λ>0, où T_n≃n ln⁡n désigne le temps nécessaire pour compléter la collection. Puis, en tant qu’application, nous étudions les automates déterministes et accessibles et nous fournissons une nouvelle dérivation d’une formule due à Korsunov [Kor78, Kor86]
This Phd thesis is divided into two independent parts. In the first part, we provide an asymptotic analysis of some statistics on the binary search tree. In the second part, we study the coupon collector problem with a constraint. In the first part, following the model introduced by Aguech, Lasmar and Mahmoud [Probab. Engrg. Inform. Sci. 21 (2007) 133—141], the weighted depth of a node in a labelled rooted tree is the sum of all labels on the path connecting the node to the root. We analyze the following statistics : the weighted depths of nodes with given labels, the last inserted node, nodes ordered as visited by the depth first search procees, the weighted path length, the weighted Wiener index and the weighted depths of nodes with at most one child in a random binary search tree. In the second part, we study the asymptotic shape of the completion curve of the collection conditioned to T_n≤ (1+Λ), Λ>0, where T_n≃n ln⁡n is the time needed to complete accessible automata, we provide a new derivation of a formula due to Korsunov [Kor78, Kor86]
APA, Harvard, Vancouver, ISO, and other styles
49

Kasraoui, Anisse. "Études combinatoires sur les permutations et partitions d'ensemble." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00393631.

Full text
Abstract:
Cette thèse regroupe plusieurs travaux de combinatoire énumérative sur les permutations et permutations d'ensemble. Elle comporte 4 parties.Dans la première partie, nous répondons aux conjectures de Steingrimsson sur les partitions ordonnées d'ensemble. Plus précisément, nous montrons que les statistiques de Steingrimsson sur les partitions ordonnées d'ensemble ont la distribution euler-mahonienne. Dans la deuxième partie, nous introduisons et étudions une nouvelle classe de statistiques sur les mots : les statistiques "maj-inv". Ces dernières sont des interpolations graphiques des célèbres statistiques "indice majeur" et "nombre d'inversions". Dans la troisième partie, nous montrons que la distribution conjointe des statistiques"nombre de croisements" et "nombre d'imbrications" sur les partitions d'ensemble est symétrique. Nous étendrons aussi ce dernier résultat dans le cadre beaucoup plus large des 01-remplissages de "polyominoes lunaires".La quatrième et dernière partie est consacrée à l'étude combinatoire des q-polynômes de Laguerre d'Al-Salam-Chihara. Nous donnerons une interprétation combinatoire de la suite de moments et des coefficients de linéarisations de ces polynômes.
APA, Harvard, Vancouver, ISO, and other styles
50

Genetay, Edouard. "Quelques problématiques autour du clustering : robustesse, grande dimension et détection d'intrusion." Thesis, Rennes, École Nationale de la Statistique et de l'Analyse de l'Information, 2022. http://www.theses.fr/2022NSAIM001.

Full text
Abstract:
Le clustering vise à regrouper les données observées en différents sous-ensembles partageant des propriétés similaires. Le plus souvent ce regroupement se fait via l’optimisation d’un critère choisi à l’avance. Dans cette thèse CIFRE, nous avons étudié le clustering sous trois aspects différents.Dans une première partie, nous proposons une méthode d’estimation robuste de K centroïdes basé sur le critère, dit des « K-means ». Nous proposons également une méthode d’initialisation robuste de la procédure. D’une part, la robustesse des procédures proposées a été testée par de nombreuses simulations numériques. D’autre part, nous avons montré un théorème donnant la vitesse de convergence d’un estimateur idéalisé en présence d’outliers ainsi qu’un théorème donnant le breakdown point de la méthode. Dans une seconde partie nous nous plaçons dans le cadre d’un mélange équilibré de deux gaussiennes isotropes, centré en l’origine, afin de fournir la première analyse théorique d’un estimateur de clustering basé sur un critère d’entropie conditionnelle. Nous montrons que le critère est localement convexe, offrant d’une part des vitesses d’apprentissage rapide et d’autre part une inégalité oracle en grande dimension, lorsque le vecteur moyen de séparation est sparse.Dans une troisième partie, plus pratique et consacrée à des graphes en cybersécurité, nous regardons si l’évolution du nombre de clusters obtenus par une méthode d’optimisation de modularité peut révéler des anomalies causées par une intrusion dans un système informatique
Clustering aims at grouping observed data into different subsets sharing similar properties. Most often this clustering is done through the optimization of a criterion chosen in advance. In this CIFRE thesis, we have studied clustering under three different aspects.In a first part, we propose a robust estimation method of K centroids based on the so-called "K-means" criterion. We also propose a robust initialization method for the procedure. On the one hand, the robustness of the proposed procedures has been tested by numerous numerical simulations. On the other hand, we have shown a theorem giving the rate of convergence of an idealized estimator in the presence of outliers and a theorem giving the breakdown point of the method.In a second part, we place ourselves in the framework of a balanced mixture of two isotropic Gaussians, centered at the origin, in order to provide the first theoretical analysis of a clustering estimator based on a conditional entropy criterion. We show that the criterion is locally convex, offering on the one hand fast learning rates and on the other hand an oracle inequality in high dimension when the mean separation vector is sparse.In a third part, more practical and devoted to graphs in cybersecurity, we investigate whether the evolution of the number of clusters obtained by a modularity optimization method can reveal anomalies caused by an intrusion in a computer system
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography