Дисертації з теми "Grilles d'analyse de méthodes"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Grilles d'analyse de méthodes.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Grilles d'analyse de méthodes".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Bilhaj, Hussain. "Enseignement du français langue étrangère en Libye : analyse des méthodes appliquées au lycée et propositions didactiques." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0163.

Повний текст джерела
Анотація:
La présente recherche porte sur l'enseignement-apprentissage du FLE dans le cycle secondaire en Libye. Elle a pour visée de remettre en question le programme suivi, mais aussi les manuels scolaires et les matériels didactiques utilisés au sein des écoles secondaires. Compte tenu de la nature cruciale du rôle joué par les MS/MD dans la réussite ou l'échec de l'enseignement-apprentissage (Mackey, 1972, p. 193), et des conditions difficiles qu'a traversées et que traverse encore, de nos jours, l'enseignement du FLE dans le cycle secondaire, la remise en question de l'ensemble didactique et de son contenu est devenue une nécessité. En effet, notre étude de ter-rain démontre qu'il est indispensable et même urgent de vérifier l'applicabilité de ce dispositif didactique, son efficacité, mais aussi sa conformité au public destinataire, à ses besoins et aux objectifs et aux recommandations du ministère de l'Éducation. Pour étudier cette question, notre thèse définit, dans une première partie, le cadre théorique de cette recherche en abordant les prin-cipaux courants méthodologiques de l'EA des langues étrangères et les théories psychologiques de l'apprentissage. Cette partie traite également des méthodologies d'analyse des MS/MD. La deuxième partie porte, en premier lieu, sur une présentation générale du contexte historico-géographique de la Libye mais également sur le statut du FLE en Libye. Par la suite, nous fai-sons le point sur les MS/MD, avec une présentation des MS/MD (Oasis 1, 2, 3) utilisé de 2007 à 2014. Puis, nous réalisons une analyse comparative de nature contrastive des deux méthodes de FLE : Le Nouveau Pixel 1 (Favret : 2016) et Le français pour la Libye/Pixel 1 (Favret : 2019). Enfin, nous présentons différentes pistes didactico-pédagogiques et méthodologiques, en nous fondant sur les résultats des analyses effectuées
This research focuses on the teaching-learning (EA) French as a foreign language (FLE) in sec-ondary school in Libya. It aims to question the program followed, but also the textbooks and teaching materials used in secondary schools. Given the critical nature of the role played by the MS / MD in the success or failure of EA (Mackey, 1972: 193), and the difficult conditions that the teaching of FLE in secondary school has gone through and still goes through today, ques-tioning the teaching set and its content has become a necessity. Indeed, our field study shows that it is essential and even urgent to verify the applicability of this didactic device, its effective-ness, but also its compliance with the intended audience, its needs and the objectives and rec-ommendations of the Ministry of Education. To study this question, our thesis defines, in a first part, the theoretical framework of this research by addressing the main methodological currents of the EA of foreign languages and the psychological theories of learning. This part also deals with methodologies of MS / MD analysis. The second part concerns, first, a general presenta-tion of the historical and geographical context of Libya but also on the status of FLE in Libya. Subsequently, we take stock of the MS / MD, with a presentation of the MS / MD (Oasis 1, 2, 3) used from 2007 until 2014. Then, we carry out a comparative analysis of a contrastive nature of the two methods of FLE: Le Nouveau Pixel 1 (Favret: 2016) and Le français pour la Libye/Pixel 1 (Favret: 2019). Finally, we present various didactico-pedagogical and methodolog-ical avenues, based on the results of the analyzes carried out
Стилі APA, Harvard, Vancouver, ISO та ін.
2

James, Nicolas. "Méthodes multi-niveaux sur grilles décalées." Phd thesis, Clermont-Ferrand 2, 2009. http://www.theses.fr/2009CLF21995.

Повний текст джерела
Анотація:
Les travaux de recherche présentés dans ce manuscrit concernent l'application des méthodes multi-niveaux pour la simulation numériques des écoulements incompressibles turbulents dans le cadre d'une approximation Volumes Finis avec placements des inconnues sur grilles décalées (Harlow et Welch), ainsi que le développement d'une nouvelle méthode de type frontière immergée sur maillage cartésien pour la simulation numérique d'écoulements autour d'obstacles. Les écoulements considérés dans cette étude sont bidimensionnels
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Fortunato, Léa. "Méthodes statistiques d'analyse spatiale en épidémiologie." Paris 11, 2006. http://www.theses.fr/2006PA11T060.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Chehaibar, Ghassan. "Méthodes d'analyse hiérarchique des réseaux de Petri." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00519683.

Повний текст джерела
Анотація:
L'objet de cette thèse est de définir des méthodes d'analyse hiérarchique des réseaux de Petri (un formalisme de modélisation du contrôle des systèmes distribués). Premièrement, nous étudions la transformation de réseaux par remplacement de sous-réseaux ouverts: une notion d'équivalence est définie telle que si on remplace un sous-réseau ouvert par un réseau équivalent on obtient un réseau équivalent au réseau d'origine; puis nous définissons la classe des réseaux réentrants, pour laquelle la vérification de l'équivalence, complexe en général, devient simple. Deuxièmement, l'examen de la composition de réseaux par fusion de places conduit à deux résultats: la conservation d'espace d'accueil dans certaines conditions d'indépendance par rapport aux places partagées, et celle de l'absence d'interblocage lors de la composition des réseaux à ressources ordonnées (dans un sens différent de la solution classique). Enfin, un nouveau concept de norme pour la preuve de la propriété d'espace d'accueil est défini, muni d'opérations de composition permettant une vérification modulaire de cette propriété.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Ndiaye, Ibrahima. "Méthodes d'analyse de modèles de régulation cellulaire." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00459987.

Повний текст джерела
Анотація:
L'objet de cette thèse est de proposer des méthodes originales d'étude et de réduction de modèles métabolico-génétiques. Les systèmes considérés sont constitués d'une partie génétique (réseau de gènes interconnectés) et d'une partie métabolique couplée au réseau génétique. Ils sont décrits par des équations différentielles. Ces méthodes utilisent le graphe d'interaction du système, la monotonie des interactions, la réduction par différence d'échelles de temps et l'étude des modèles hybrides et linéaires par morceaux. Nous donnons dans la première partie quelques notions biologiques concernant le principe de la régulation cellulaire et des préalables pour la modélisation de réseaux de régulation cellulaire. Dans la deuxieme partie, nous présentons les différentes méthodes mises en place. En premier, nous exposons une méthode basée sur la hiérarchisation et qui permet de décomposer un modèle complexe en composantes fortement connexes. Nous nous sommes ensuite interessés a l'unicité et à la stabilité de l'équilibre de modèles métaboliques réversibles. Nous prouvons que s'il existe, l'équilibre est globalement asymptotiquement stable. Troisièment, nous avons appliqué des méthodes d'étude de systèmes couplés basées sur des techniques de systèmes monotones à un petit exemple de modèle métabolico-génétique. L'identification paramètrique et la réduction de modèle basée sur la différence d'échelles de temps sont traitées dans le chapitre suivant. Nous terminons par un modèle composé de 14 variables qui nous est fourni par le projet Ibis de l'INRIA Grenoble auquel nous appliquons quelques unes de ces méthodes; nous sommes en mesure de l'étudier dans son intégralité.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Mouine, Mohamed. "Combinaison de deux méthodes d'analyse de sensibilité." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27885/27885.pdf.

Повний текст джерела
Анотація:
L’objectif de ce travail est de mettre en place une méthode d’analyse de sensibilité paramétrable, pour qu’elle puisse être utilisée avec différentes méthodes d’aide à la décision multicritères, qui génère des résultats exacts en un temps raisonnable. Afin d’atteindre notre objectif, nous avons utilisé une méthode d’analyse de stabilité de (Vetschera, 1986). Cette méthode a été présentée à l’origine pour Electre I, nous l’avons adapté à Electre II. Les résultats retournés par cette méthode avec Electre II seront utilisés pour l’analyse de sensibilité. Nous avons expérimenté la méthode d’analyse de sensibilité de (Ben Mena, 2001). Cette méthode détermine la sensibilité des paramètres d’Electre III. Suite à plusieurs expérimentations à l’aide du logiciel MCDM, nous avons pu améliorer la méthode de Ben Mena. Nous avons adapté notre nouvelle méthode à Electre II. À la fin, nous avons combiné les deux méthodes pour avoir une méthode d’analyse de sensibilité précise, rapide et qui ne demande pas une intervention humaine pour fixer les paramètres.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Rousseau, François. "Méthodes d'analyse d'images pour l'anatomie numérique cérébrale." Habilitation à diriger des recherches, Université de Strasbourg, 2014. http://tel.archives-ouvertes.fr/tel-01011781.

Повний текст джерела
Анотація:
Ce document présente une synthèse des travaux réalisés depuis une dizaine d'années au sein de l'University of California, San Francisco (UCSF) puis au Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT) et au laboratoire ICube à Strasbourg. Ces activités se situent au confluent de l'informatique, des mathématiques appliqués et des neurosciences. Ce domaine de recherche, appelé neuro-informatique, concerne la conception et la réalisation de méthodes d'analyse, la constitution de base de données et des outils associés dont l'objectif est la compréhension du cerveau. Nos travaux se sont plus particulièrement focalisés sur le traitement et l'analyse de données IRM cérébrales, conduisant à aborder différentes problématiques telles que la reconstruction d'images, l'extraction d'information, la mise en correspondance ou la détection de changements. Les activités de recherche en neuro-informatique soulignent l'apport essentiel des méthodes de traitement de l'information afin de comprendre au travers de grandes masses de données le fonctionnement de systèmes complexes tels que le cerveau.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Athias, Nicolas. "Méthodes d'analyse physico-chimiques du stratum corneum." Besançon, 1996. http://www.theses.fr/1996BESA3304.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Dubourg, Grégory. "Méthodes d'analyse et variations du microbiote digestif." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM5025.

Повний текст джерела
Анотація:
L’étude de la composition de la flore digestive ainsi que son implication avec la santé et les maladies est devenue un enjeu majeur. Nous avons étudié la flore de malades traités par de très nombreux antibiotiques, à la fois par culturomics et par pyroséquençage. Ce travail a montré une diminution importante du nombre de bactéries différentes colonisant le tube digestif après traitement. Cette diminution était d’autant plus importante que le traitement était prolongé. Les bactéries offrant une protection immunitaire contre certains pathogènes, il est à présent proposé des vaccinations contres des microorganismes invasifs après traitement antibiotique au long cours. Par ailleurs, les techniques de séquençage ont montré pour deux des échantillons un haut taux de colonisation par Akkermansia muciniphila, un microorganisme appartenant au phylum des Verrucomicrobia. Ce résultat a par ailleurs été confirmé en utilisant des techniques d’hybridation de fluorescence in situ (FISH). Les tentatives de culture ce microorganisme se sont révélées infructueuses. Au final ce travail nous aura permis de cultiver 7 nouvelles espèces que nous avons décrites en utilisant la taxonogénomique, une approche incluant des données phénotypiques et le séquençage du génome.Nous avons également étudié la flore de patients infectés par le virus du VIH par métagénomique et avons observé une augmentation considérable des bactéries qui supportent l’oxygène, alors que les bactéries intolérantes étaient très diminuées. Ces changements étaient associés aux marqueurs de progression de la maladie, ouvrant la voie à une supplémentation en antioxydants
The study of the composition of the intestinal flora as well as its involvement with health and disease has become a major issue.We studied the flora of patients treated by broad-spectrum antibiotics by both culture and pyrosequencing. This work showed a significant decrease in the number of different bacteria colonizing the digestive tract after treatment. This decrease was even more important that treatment was extended. Bacteria interacting with immune protection against some pathogens, it is now proposed vaccinations against invasive microorganisms after prolonged antibiotic treatment. Furthermore, the sequencing techniques have shown for two samples a high-level colonization by Akkermansia muciniphila a microorganism belonging to the phylum Verrucomicrobia. Despite the successive failures of culture attempt of this organism, this finding was also confirmed using fluorescence in situ hybridization technique (FISH). Ultimately this work has enabled us to discover 7 new species that have been described using the taxonomogenomics approach which includes phenotypic data and genome sequencing.We also studied the flora of HIV-infected patients by metagenomics, and observed a significant increase in bacteria that withstand oxygen, while intolerant bacteria were deceased. These changes were associated with markers of disease progression, opening the way for antioxidant supplementation
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Guyon, Frédéric. "Application des méthodes multi-grilles au contrôle optimal : méthodes de pondération en estimation de paramètres." Compiègne, 1991. http://www.theses.fr/1991COMPD431.

Повний текст джерела
Анотація:
Dans ce travail, nous nous sommes intéressés à deux problèmes de nature différente : l’application des méthodes multigrilles à la résolution de problème de contrôle ; l'application de méthodes de pondération optimale aux problèmes d'identification. Dans les trois premiers chapitres de ce mémoire, nous précisons les idées essentielles qui nous permettront dans les chapitres suivants de nous attaquer à l'application des méthodes multigrilles à un problème de contrôle modèle. Pour cela, nous détaillons les différentes composantes d'un algorithme multigrilles, nous développons l'analyse d'un problème modèle, nous énonçons la propriété d'approximation entre grilles et la propriété de lissage. Dans le quatrième chapitre, nous étudions l'application des méthodes de gradient à la résolution d'un problème de contrôle d'un système gouverné par une équation elliptique. Le résultat essentiel de cette partie est négatif. Nous montrons que ces méthodes ne satisfont pas la propriété de lissage et ne sont donc pas complémentaires des corrections sur une grille grossière. Des expériences numériques confirment cette analyse. Ainsi, dans le cinquième chapitre, nous abordons différemment le « multigrillage » du problème de contrôle. Nous présentons des méthodes itératives appliquées au système d'optimalité qui ne nécessitent pas le calcul exact du gradient. Le résultat essentiel est que ces méthodes permettent d'obtenir un taux de convergence indépendant du pas de discrétisation. Ceci est confirmé par les résultats numériques. La deuxième partie du travail porte sur l'étude de méthodes d'estimation de paramètres utilisant des matrices de pondérations. Cette méthode est appliquée à l'estimation du coefficient de diffusion dans une équation parabolique. L’idée consiste à déterminer des matrices de poids de façon à ce que le hessien du coût soit aussi proche que possible de l'identité. Cette méthode est étudiée en détail aussi bien du point de vue théorique que numérique. Les résultats numériques montrent une amélioration de la convergence des méthodes d'optimisation (gradient conjugué, quasi-Newton) appliquées au problème pondéré par rapport au problème non pondéré.
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Bar, Romain. "Développement de méthodes d'analyse de données en ligne." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00943148.

Повний текст джерела
Анотація:
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance θn du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Zn_tilde = Zn − θn et on suppose que les vecteurs Zn_tilde forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire Z_tilde. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de Z_tilde. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Bazelaire, Cédric de. "Méthodes d'analyse de la microcirculation tumorale en IRM." Paris 11, 2005. http://www.theses.fr/2005PA112038.

Повний текст джерела
Анотація:
La néoangiogénèse est impliquée dans le développement des tumeurs. Certains facteurs stimulant l’angiogénèse ont été isolés et peuvent être inhibés. La surveillance de l’activité de ces thérapies inhibitrices, souvent cytostatiques, ne peut se baser sur une observation morphologique. L’étude fonctionnelle de la microcirculation est possible en IRM grâce à l’analyse de la pharmacocinétique de traceurs dans la tumeur. L’activité d’une thérapie antiangiogénique a été surveillée en IRM grâce au Spin Labeling (ASL) couplé à une suppression du bruit de fond. Cette technique permet de quantifier la perfusion tissulaire, grâce à un marquage électromagnétique des protons du sang. L’ASL a permis de distinguer dès le 1er mois les patients répondeurs des patients en progression, ce que les mesures morphologiques ne révélaient qu’à 3 mois. L’analyse de la perméabilité capillaire par l’analyse dynamique des rehaussements (ADR) tissulaires et artériels après injection de produit de contraste a été optimisée grâce à une séquence double écho dont la pondération était adaptée aux concentrations mesurées : T2* pour les concentrations élevées et T1 pour les basses. Cette technique a permis de réduire de 58% l’erreur d’estimation de la perméabilité capillaire. Le développement d’une technique de mesure des temps de relaxation en une apnée a permis d’améliorer les estimations de perfusion (ASL) et de perméabilité (ADR) en évitant d’utiliser des valeurs de T1 tumorales approximatives lors de la quantification. En mesurant la perfusion et la perméabilité tumorale, cibles des traitements antiangiogéniques, l’ASL et l’ADR se présentent comme des méthodes attractives pour le suivi de ces thérapies
Angiogenesis plays a key role in tumor growth. New approaches to treat cancer by interfering with angiogenesis stimulating factors are now available. However, clinicians need new surrogates of antiangiogenic activity. Tumor size changes occure 2 or 3 month after the beginning of the treatment, which is to late. Functional analysis of tracer kinetic in tissue in MRI may be an attractive alternative. Antiangiogenic activity of a VEGF receptor inhibitor, was evaluated by tumor blood flow, assessed by arterial spin labeling (ASL) with background suppression. Preliminary results reveal a significant correlation (Spearman r = 0. 90, p =. 0002) between the change in blood flow at 1 month and change in tumor size measured at 4 months or the time of disease progression. A capillary permeability assessment in dynamic contrast enhancement (DCE) was optimized using a dual gradient echo sequence. This dual sequence was sensitive to high concentration thanks to T2* weighted images and to low concentrations with T1 weighted slices. The use of this sequence leads to reduce by 58% the permeability measurements. The development of a new technique to assess to relaxation time in the body within a single breath hold may improve perfusion and permeability measurements. Real relaxation time can be used for quantification instead of theoretical values, reducing systematic error. ASL and DCE have promise as early predictors of clinical response to antiangiogenic therapies and may help to identify non-responding patients
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Poupa-Rouault, Marie-Madeleine. "Méthodes d'Analyse des processus d'appropriation de nouvelles technologie." Paris 1, 1986. http://www.theses.fr/1986PA010635.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Tagny, Ngompe Gildas. "Méthodes D'Analyse Sémantique De Corpus De Décisions Jurisprudentielles." Thesis, IMT Mines Alès, 2020. http://www.theses.fr/2020EMAL0002.

Повний текст джерела
Анотація:
Une jurisprudence est un corpus de décisions judiciaires représentant la manière dont sont interprétées les lois pour résoudre un contentieux. Elle est indispensable pour les juristes qui l'analysent pour comprendre et anticiper la prise de décision des juges. Son analyse exhaustive est difficile manuellement du fait de son immense volume et de la nature non-structurée des documents. L'estimation du risque judiciaire par des particuliers est ainsi impossible car ils sont en outre confrontés à la complexité du système et du langage judiciaire. L'automatisation de l'analyse des décisions permet de retrouver exhaustivement des connaissances pertinentes pour structurer la jurisprudence à des fins d'analyses descriptives et prédictives. Afin de rendre la compréhension d'une jurisprudence exhaustive et plus accessible, cette thèse aborde l'automatisation de tâches importantes pour l'analyse métier des décisions judiciaires. En premier, est étudiée l'application de modèles probabilistes d'étiquetage de séquences pour la détection des sections qui structurent les décisions de justice, d'entités juridiques, et de citations de lois. Ensuite, l'identification des demandes des parties est étudiée. L'approche proposée pour la reconnaissance des quanta demandés et accordés exploite la proximité entre les sommes d'argent et des termes-clés appris automatiquement. Nous montrons par ailleurs que le sens du résultat des juges est identifiable soit à partir de termes-clés prédéfinis soit par une classification des décisions. Enfin, pour une catégorie donnée de demandes, les situations ou circonstances factuelles où sont formulées ces demandes sont découvertes par regroupement non supervisé des décisions. A cet effet, une méthode d'apprentissage d'une distance de similarité est proposée et comparée à des distances établies. Cette thèse discute des résultats expérimentaux obtenus sur des données réelles annotées manuellement. Le mémoire propose pour finir une démonstration d'applications à l'analyse descriptive d'un grand corpus de décisions judiciaires françaises
A case law is a corpus of judicial decisions representing the way in which laws are interpreted to resolve a dispute. It is essential for lawyers who analyze it to understand and anticipate the decision-making of judges. Its exhaustive analysis is difficult manually because of its immense volume and the unstructured nature of the documents. The estimation of the judicial risk by individuals is thus impossible because they are also confronted with the complexity of the judicial system and language. The automation of decision analysis enable an exhaustive extraction of relevant knowledge for structuring case law for descriptive and predictive analyses. In order to make the comprehension of a case law exhaustive and more accessible, this thesis deals with the automation of some important tasks for the expert analysis of court decisions. First, we study the application of probabilistic sequence labeling models for the detection of the sections that structure court decisions, legal entities, and legal rules citations. Then, the identification of the demands of the parties is studied. The proposed approach for the recognition of the requested and granted quanta exploits the proximity between sums of money and automatically learned key-phrases. We also show that the meaning of the judges' result is identifiable either from predefined keywords or by a classification of decisions. Finally, for a given category of demands, the situations or factual circumstances in which those demands are made, are discovered by clustering the decisions. For this purpose, a method of learning a similarity distance is proposed and compared with established distances. This thesis discusses the experimental results obtained on manually annotated real data. Finally, the thesis proposes a demonstration of applications to the descriptive analysis of a large corpus of French court decisions
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Alkosseifi, Clara. "Méthodes bi-grilles en éléments finis pour les systèmes phase-fluide." Thesis, Amiens, 2018. http://www.theses.fr/2018AMIE0048/document.

Повний текст джерела
Анотація:
Cette thèse porte sur le développement, l'analyse et la mise en oeuvre de nouvelles méthodes bi-grilles en éléments finis pour des équations de réaction-diffusion de type champs de phase (Allen-Cahn, Cahn-Hilliard) ainsi que leur couplage avec les équations de Navier-Stokes 2D incompressible. La présence d'un petit paramètre (largeur de l'interface) dans les modèles à interface diffuse demande à utiliser des schémas temporels implicites et coûteux tandis que ceux semi implicites sont rapides mais limités en stabilité. Les nouveaux schémas introduits ici reposent sur l'utilisation conjointe de deux espaces d'éléments finis, un grossier VH et un fin Vh, de plus grande dimension, permettant de décomposer la solution en partie principale portant les composantes bas modeset en une partie fluctuante portant les modes élevés. L'approche bi-grilles proposée consiste à appliquer les schémas stables (coûteux) sur VH (prédiction) et à effectuer une correction sur Vh à l'aide d'un schéma linéaire dont les composantes modes élevés sont stabilisées. Un gain important en temps CPU est obtenu au prix d'une faible perte de consistance. Dans ce contexte, de nouvelles méthodes numériques sont proposées pour les modèles de champs de phase et leur couplage fluide. Nous donnons des résultats de stabilité et validons l'approche sur des bancs d'essais
This thesis deals with the development, the analysis and the implementation of new bi-grid schemes in finite elements, when applied to phase-field models such as Allen-Cahn (AC) and Cahn-Hilliard (CH) equations but also their coupling with 2D incompressible Navier-Stokes equations. Due to the presence of a small parameter, namely the length of the diffuse interface, and in order to recover the intrinsic properties of the solution, (costly) implicit time schemes must be used; semi-implicit time schemes are fast but suffer from a hard time step limitation. The new schemes introduced in the present work are based on the use of two FEM spaces, one coarse VH and one fine Vh, of larger dimension. This allows to decompose the solution into a main part (containing only low mode components) and a fluctuant part capturing the high mode ones. The bi-grid approach consists then in applying as a prediction an unconditional stable scheme (costly) to VH and to update the solution in Vh by using a high mode stabilized linear scheme. A gain in CPU time is obtained while the consistency is not deteriorated. This approach is extended to NSE and to coupled models (AC/NSE) and (CH/NSE). Stability results are given, the numerical simulations are validated on reference benchmarks
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Kosawat, Krit. "Méthodes de segmentation et d'analyse automatique de textes thaï." Phd thesis, Université Paris-Est, 2003. http://tel.archives-ouvertes.fr/tel-00626256.

Повний текст джерела
Анотація:
Ce travail de thèse a pour objectif de concevoir et réaliser un module informaticolinguistique apte à effectuer des analyses automatiques de textes thaï sous le système INTEX © . Basé fondamentalement sur les langues indo-européennes écrites avec l'alphabet latin, INTEX © rencontre quelques difficultés pour travailler sur une langue très différente comme le thaï. Le problème crucial est la segmentation en mots et en phrases, étant donné que le thaï n'a pas de séparateur de mot : une phrase est écrite en une séquence de lettres continues, et les séparateurs de phrase sont fréquemment ambigus. Aussi avons-nous développé et évalué deux méthodes de segmentation en mots, par expressions rationnelles et par transducteurs à nombre fini d'états, qui découpent respectivement des textes thaï en lettres et en syllabes. Nous avons également créé les dictionnaires électroniques du thaï qui servent à la fois à reconnaître les mots à partir des lettres ou des syllabes et à les étiqueter avec les codes syntaxiques et sémantiques. Deux méthodes de segmentation en phrases thaï, par la ponctuation et par mots-clés, sont également proposées et évaluées. Nous montrons enfin que, grâce à notre travail, INTEX © est capable d'analyser des documents thaï, malgré toutes les difficultés.
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Bourmaud, Gaëtan. "Les systèmes d'instruments : méthodes d'analyse et perspectives de conception." Phd thesis, Université Paris VIII Vincennes-Saint Denis, 2006. http://tel.archives-ouvertes.fr/tel-00109046.

Повний текст джерела
Анотація:
Cette thèse porte sur les outils des opérateurs chargés de la planification et de
l'ordonnancement de la maintenance dans une entreprise de télédiffusion. Nous nous
inscrivons dans le cadre théorique des activités avec instruments qui propose une approche
psychologique des outils, alors nommés instruments. Les instruments ne sont pas donnés
d'emblée, ils sont constitués par le sujet lui-même dans le cadre de processus de genèses
instrumentales assimilables à une poursuite de la conception dans l'usage. Notre travail se
propose d'étudier les instruments comme un ensemble cohérent et organisé par le sujet pour
répondre à la variété des situations rencontrées, nous parlons alors de système
d'instruments. Dans cette recherche, l'enrichissement du cadre théorique tient (1) en une
approche méthodologique spécifique des systèmes d'instruments et (2) en la proposition de
perspectives nouvelles pour une conception anthropocentrée sur la base des caractéristiques
des systèmes d'instruments.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Martel, Laurence. "Méthodes d'analyse de surface appliquées à l'étude de protéines." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00006293.

Повний текст джерела
Анотація:
L'immobilisation de protéines ancrées à des lipides à l'interface air-eau ou solide-eau permet aux protéines d'interagir avec des molécules en solution. Dans le cas des cadhérines, protéines d'adhérence cellulaire, ce système mime la surface d'une cellule. Les interactions entre domaines extracellulaires de cadhérines nécessitent la présence d'ions calcium. Des monocouches de C-cadhérine et de VE-cadhérine formées à la surface de l'eau ont été étudiées en variant la concentration en calcium de la solution. La densité massique surfacique apparente de protéines a été évaluée par ellipsométrie. Le profil de densité électronique des monocouches a été déterminé par réflectivité des rayons X en ncidence rasante. Les résultats obtenus suggèrent que les cadhérines forment des complexes antiparallèles pouvant en partie être dissociés par l'appauvrissement de la solution en calcium. La résonance des plasmons de surface a permis d'évaluer la densité de molécules déposées sur un substrat solide.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Langlet, Alyssa. "Développement de méthodes d'analyse de comprimés à haute vitesse." Mémoire, Université de Sherbrooke, 2018. http://hdl.handle.net/11143/11773.

Повний текст джерела
Анотація:
La qualité des produits commercialisés représente un enjeu essentiel dans le domaine pharmaceutique. De plus en plus, les industriels cherchent à contrôler les différentes étapes de leurs procédés, les produits générés à toutes les étapes de fabrication ainsi que leurs produits finis, le but de tout cela étant une meilleure compréhension des procédés, ainsi qu’un gain de temps et une réduction des pertes financières. La chaire de recherche sur les Technologies d’Analyse de Procédés (PAT) en partenariat avec Pfizer travaille sur le développement de connaissances sur les phénomènes physico-chimiques régissant le comportement des procédés, et sur les critères de transferts technologiques basés sur des modèles phénoménologiques ou mathématiques. C’est dans le cadre de cette chaire que s’est déroulée cette maîtrise. Les travaux présentés mettent en lumière le développement d’une méthode permettant d’analyser de manière non destructive 100% des comprimés fabriqués, à vitesse réelle de production. À l’aide de la spectroscopie Proche-Infrarouge, l’objectif est de quantifier la teneur en principe actif dans chaque produit et dans le but d’identifier tous ceux étant sur ou sous-dosés. Également, l’adaptation de cette méthode à d’autres types d’analyses qui ont un intérêt dans l’industrie, comme la quantification d’humidité des comprimés, et l’enrobage, a été étudiée. Dans chaque cas, des spectres proche-infrarouge de produits fabriqués ont été acquis à l’aide d’une sonde installée sur un système de tri fonctionnant à une vitesse supérieure à celle d’une presse (c’est à dire généralement de 60,000 à 160,000 comprimés par heure). Les données ont été utilisées pour bâtir des modèles multivariés et prédire les valeurs souhaitées. Les résultats obtenus ont montré qu’il était possible d’analyser l’intégralité des échantillons d’un lot, à une vitesse garantissant de ne pas ralentir la production. L’utilisation d’une telle méthode dans l’industrie permettra de contrôler la globalité des produits finis, et donc permettre une qualité de 100% des produits commercialisés et éviter les rappels. Elle permettra également d’être utilisée en développement, lorsque la génération de beaucoup de données est nécessaire, comme pour le développement d’un algorithme par exemple.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Torras, Flaquer Josep. "Méthodes probabilistes d'analyse de fiabilité dans la logique combinatoire." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00678275.

Повний текст джерела
Анотація:
Les circuits numériques utilisés dans des domaines aussi variés que le médical, spatial, automobile ou nucléaire ont besoin d'une très forte fiabilité. La réduction progressive de la tension d'alimentation et l'intégration croissante des produits électroniques affecte la sensibilité du système à l'apparition de fautes (permanentes ou transitoires). Les fautes transitoires ont été largement dominants dans le taux total de SER (Soft Error Rate) des mémoires et éléments de séquentiels. Ainsi, les techniques de correction et prévention pour ces éléments sont bien connues. Par contre, la contribution au SER due aux éléments de logique combinatoire est en croissance, et il est prévue qu'elle devient dominante avec la réduction progressive de la taille de la technologie CMOS. Ainsi, il y a un réel besoin de pallier le manque de modèles et méthodologies qui prennent en compte l'effet de la logique combinatoire dans la perte de fiabilité. Deux approches existe pour cette problématique : 1- Techniques d'injection de fautes 2 - Modèles analytiques Le travail présenté dans cette thèse pour sur l'approche analytique, ou approche probabiliste. D'abord, une analyse en profondeur de l'état de l'art est proposé, mettant en évidence les limitations principales de ce type d'approche. Deuxièmement, des nouvelles approches sont proposées, améliorant la performance des approches existants. Des nouvelles métriques concernant l'analyse FMDEA et durcissement séléctif sont aussi proposées. Finalement, les approches sont validées en comparant leur performance avec les principales techniques déjà existantes.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Vétillard, Jocelyne. "Quelques méthodes d'analyse et de contrôle de problèmes aérocoustiques." Paris, CNAM, 2006. http://www.theses.fr/2006CNAM0551.

Повний текст джерела
Анотація:
L'étude menée dans cette thèse porte sur la modélisation numérique et le contrôle des ondes acoustiques qui se déplacent dans un conduit rectiligne parcouru par un fluide mais de section constante ou variable et dont une partie est flexible. A ce titre il s'agit d'un problème d'interaction fluide-structure. Le système de contrôle est constitué d'actionneurs situés sur la partie flexible du corps de la tuyauterie. Le problème de la contrôlabilité exacte de la solution du modèle et résolvons des hypothèses restrictives portant à la fois sur la géométrie de la tuyauterie et sur la vitesse moyenne de l'écoulement permanent. En particulier, un phénomène de flottement peut intervenir pour certaines vitesses critiques et correspond à une résonance entre un mode de cavité interne et un mode propre de la structure flexible. Un certain nombre de résultats numériques viennet étayer les résultats théoriques obtenus
The aim of this thesis is to study the numerical modelling and the control of acoustic waves which propagate in a flow duct with a constant or a variable section a part of which is flexible. It deals with a problem in fluid-stucture interaction. The control system is modelled by actionners located on the flexible part of the duck. The problem of exact controllabity is solved by using some restricted hypotheses dealing both with the duct geometry and the mean velocity of the flow. In particular, the flutter phenomenon an coccur for critical velocities and corresponds to the resonance between the intern cavity eigennodes and the flexible structure eigennodes. Several results come to support theorical results
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Caspary, Olivier. "Applicabilité des méthodes d'analyse spectrale à haute résolution fréquentielle." Nancy 1, 1995. http://www.theses.fr/1995NAN10004.

Повний текст джерела
Анотація:
Ce mémoire porte sur l'applicabilité des méthodes d'analyse spectrale à haute résolution fréquentielle. La première partie présente une unification des principales méthodes à partir de la résolution d'un problème de minimisation sous contraintes. La seconde partie, en s'appuyant sur des simulations multiples, étudie les problèmes de mise en œuvre associés d'une part aux méthodes et, d'autre part, aux signaux. Dans le premier cas, nous généralisons notamment les méthodes d'approximation du sous-espace signal afin qu'elles soient plus robustes vis-à-vis du choix du nombre de composantes, et proposons également une pondération qui évite ce choix. Dans le second cas, un prétraitement, consistant à former la matrice des données à l'aide des données et de leurs corrélations successives, est proposé. Dans le cas de signaux sinusoïdaux courts, il améliore le rapport signal sur bruit si celui-ci est faible. La troisième partie traite deux applications complémentaires, en l'occurrence des signaux de spectroscopie RMN et des fuseaux de sommeil de signaux EEG. Pour ces deux applications, nous proposons des méthodologies appropriées qui peuvent faire appel à la technique de filtrage-décimation afin de réduire la complexité numérique et d'améliorer la résolution. Le dernier chapitre fait le point sur les connaissances acquises et conduit à l'ébauche d'un guide utilisateur
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Ramel, Jean-Yves. "Interprétation automatique de dessins : Méthodes d'analyse et de reconnaissance." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0105.

Повний текст джерела
Анотація:
L'objectif de l'interprétation automatique de documents est de faciliter l'exploitation des dessins. Nous en proposons un ensemble d'étapes permettant la transformation du schéma papier en données numériques interprétées. Cette interprétation consiste à extraire l'information graphique et alphanumérique du document afin de reconstituer la sémantique associée aux différents objets du dessin et à leurs relations. Dans le but de construire un tel système, nous avons choisi de nous inspirer du fonctionnement du système visuel humain. Nous imaginons une première phase de perception globale qui nous donne une première représentation du document à l'aide d'un nombre limité de primitives élémentaires : le Pixel, le Vecteur, et le Quadrilatère. Nous montrons que cette représentation est suffisante pour fournir une description précise de toutes les formes du document initial et valable aussi longtemps que possible dans les différents niveaux d'analyse. Dans une seconde étape, l'utilisation duale d'un système multi-experts et de la représentation préalablement construite permet, au cours d'une phase de lecture et d'interprétation, d'utiliser les données fournies par la vision globale afin d'améliorer les analyses locales. Un mécanisme de cycles perceptifs permet aux différents experts de coopérer pour extraire seulement les évidences, ce qui a pour effet de limiter les erreurs d'analyse. Chaque expert réalise une tâche précise telle que, par exemple, la détection du texte, des courbes, des éléments mécaniques ou la reconstruction 3D du mécanisme. Tous les experts utilisent la vision globale pour focaliser leur attention sur des zones précises de l'image qu'ils étudient en détail pour faire avancer l'analyse. Notre système s'efforce d'extraire aussi bien les formes que les connaissances, de manière hiérarchique et réfléchie, et les transcrit dans un modèle de représentation évolutif. Ainsi se trouve constituée une interface intelligente entre le dessin sur support papier et les logiciels spécialisés dans le traitement de tels dessins
Automatic interpretation of documents is developed to make easier the retrieval and then the exploitation of the handmade paper drawings. We propose a set of stages achieving the transformation of a paper drawn diagram into numeric data allowing storage and including a drawing interpretation which could be used by a specialized software. To do that, we need to extract the graphic and alphanumeric information from the document in order to rebuild the semantic data associated to the different objects in the drawing and to their relationships. To realize this duty, we have taken advantage of natural techniques commonly associated with human perception. They have inspired the architecture of our model. At first stage, a global perception of the document is realized, using a limited number of elementary primitives: the Pixel, the Vector and the Quadrilateral. So a first representation of the document is obtained. All along the different levels of the analysis, this representation will provide a precise description of all the shapes from the original document. Next, the dual use of our representation of the document and of a multi-expert system tends to improve the local analysis all along the reading and understanding steps. A mechanism of perceptive cycles allows the different experts to cooperate. Each expert has some elementary, precise and enough knowledge of some particular domains, such as extraction of text, of curves, of mechanical elements. Too, it uses the global vision to focus its attention on different places in the image. The hypotheses that the experts have assumed are verified and they induce the evolution of the document representation. Every step of the process brings some new information that is used either to confirm a previous hypothesis or to state a new one until full understanding of the document is obtained
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Tang, Ahanda Barnabé. "Extension des méthodes d'analyse factorielle sur des données symboliques." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090047.

Повний текст джерела
Анотація:
Le but de ce travail est d'étendre les méthodes classiques d'analyse factorielle (ACP, AFC, AFM) a un tableau de données symboliques (TDS). Dans ce tableau, l'élément numérique habituel du modèle tabulaire classique est remplacé par une application mesurable. Ce modèle introduit une définition naturelle d'un individu par un objet assertion Diday, 95. Dans une première partie, nous améliorons l'algorithme d'ACP sur un tableau de données intervalles dans trois directions. D'une part, on propose une ACP duale en introduisant la notion d'assertion de variable par une lecture en colonne du TDS. Ensuite nous présentons plusieurs aides à l'interprétation que nécessitent cette nouvelle approche. Enfin, nous généralisons l'algorithme au cas de l'AFM, si l'on suppose les données structurées en groupes. La deuxième partie de cette thèse est consacrée à l'extension de l'analyse des correspondances. Dans le cas où on ne considère que la variation, on présente une correspondance entre deux variables dans le cas où la base de données comporte deux descripteurs, puis dans un cas plus général. Cette correspondance tient compte de la mesure associée à l'espace de description. Les divers thèmes de cette thèse sont illustrés par des applications sur des données réelles ou simulées.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

SORIA-COUSINEAU, MICHELE. "Méthodes d'analyse pour les constructions combinatoires et les algorithmes." Paris 11, 1990. http://www.theses.fr/1990PA112317.

Повний текст джерела
Анотація:
L'objet de cette these est l'etude des proprietes statistiques de structures combinatoires, et la motivation premiere est l'analyse d'algorithmes. Analyser la complexite d'un algorithme revient souvent a etudier une classe particuliere d'objets combinatoires. Nous presentons ici l'analyse de la complexite moyenne des systemes de recriture reguliers, qui repose sur l'etude des familles simples d'arbres. Plus generalement nous etudions les relations existant entre la description structurelle des objets combinatoires et leurs proprietes statistiques. Nous montrons l'apparition de distributions probabilistes communes dans des schemas combinatoires tres generaux et nous classifions les constructions les constructions combinatoires vis-a-vis de leurs proprietes statistiques. Les proprietes statistiques des schemas combinatoires resultent des proprietes analytiques des series generatrices associees. Une partie essentielle de notre etude est donc consacree a la recherche de conditions analytiques entrainant l'apparition de lois limites donnees dans certains types de schemas fonctionnels. Ce travail repose sur deux principes generaux: d'une part la traduction des constructions combinatoires en operateurs sur les series generatrices, et d'autre part l'utilisation de methodes asymptotiques d'analyse complexe et de theoremes limites de probabilites. En application de nos resultats analytiques generaux nous derivons bon nombre de resultats originaux sur une grande variete de structures combinatoires et informatiques: nombres entiers, polynomes sur un corps fini, mots sur un alphabet fini, permutations avec differents types de contraintes, diverses familles d'arbres etiquetes et non etiquetes, graphes 2-reguliers, classes de graphes fonctionnels de divers types, etc.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Sève, Gilles. "Stabilité des ouvrages géotechniques : Données expérimentales et méthodes d'analyse." Marne-la-vallée, ENPC, 1998. http://www.theses.fr/1998ENPC0013.

Повний текст джерела
Анотація:
Actuellement, la justification de la stabilité des projets d'ouvrages géotechniques se fait par catégories d'ouvrages et utilise des méthodes de calcul codifiées. Le travail présenté dans ce mémoire traite de la validation expérimentale des différentes méthodes de calcul de stabilité des ouvrages géotechniques (talus de déblai, talus de remblai éventuellement renforcés, pentes naturelles). Les principes mécaniques et les hypothèses sur lesquelles reposent les différentes méthodes de calcul de stabilité du massif de sol sont décrites et analysées. Elles ont été classées en trois catégories : a) les méthodes de calcul de stabilité utilisant l'équilibre limite, b) les méthodes de calcul de stabilité utilisant le calcul a la rupture (analyse limite), c) les méthodes de calcul en déformation (application de la méthode des éléments finis). Une étude comparative des méthodes de calcul de stabilité de pente a permis de préciser leurs limites d'application. Les coefficients de sécurité calculés par plusieurs méthodes différentes diffèrent peu (moins de 10 pourcents) les uns des autres. La pratique du calcul de stabilité des talus est décrite et analysée. On aborde les aspects réglementaires, et en particulier, on décrit les principes de la justification des ouvrages selon les recommandations de l'Eurocode 7. On évalue sur la base d'études paramétriques, la mise en œuvre de l'Eurocode 7 et son influence sur les géométries des ouvrages. Différents aspects particuliers du dimensionnement d'ouvrages géotechniques : les talus, les pentes sous séisme, les massifs renforcés par clouage sont considérés. Des sites de référence sont décrits auxquels on applique les méthodes de dimensionnement. Leurs prévisions sont comparées au comportement des ouvrages réels. Des justifications expérimentales des méthodes de dimensionnement en sont déduites
Earthwork projects are generally designed, using methods of calculation which are defined by codes and practice depending on earthwork type. The present study deals with the experimental validation of the methods used to compute earthwork stability (natural slopes, excavations and embankments, eventually reinforced). The mechanical principles and assumptions of various methods are described and analysed. Three groups have been assessed : a) methods based on limit equilibrium, b) methods based on limit analysis theory and c) methods based on deformations computing using FEM. A comparative study between different methods leads to specify their limits of applicability and indicates that the factors of safety calculated using one or another method are very close (less that 10 % difference). Common practice of slope stability analysis is described and analysed. Regulations and codes are also presented with emphasis on Eurocode 7. The effect of using Eurocode 7 recommendations for design is illustrated by a parametric study. Particular slope problems, like natural and embankment slopes subjected to seismic loading, as well as special earthwork techniques (soil nailing) are evaluated. Numerous sites are fully described and analysed using different methods. Predictions are compared to the actual slope behaviour. Experimental validation of most numerical methods is presented
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Meyer, Nicolas. "Méthodes statistiques d'analyse des données d'allélotypage en présence d'homozygotes." Université Louis Pasteur (Strasbourg) (1971-2008), 2007. https://publication-theses.unistra.fr/public/theses_doctorat/2007/MEYER_Nicolas_2007.pdf.

Повний текст джерела
Анотація:
Les donnéees d'allélotypage contiennent des mesures réealisées par Polymerase Chain Reaction sur une série de microsatellites de l'ADN a¯n de déterminer l'existence d'un déséquilibre allélique pour ces microsatellites. D'un point de vue statistique, ces données sont caractérisées par un nombre important de données manquantes (en cas d'homozygotie du microsatellite), par des matrices carrées ou comportant plus de variables que de sujets, des variables biniomiales, des effectifs parfois faibles et éventuellement de la colinéarité. Les méthodes statistiques fréquentistes ont un nombre important de limites qui font choisir un cadre bayésien pour analyser ces données. En analyse univariée, l'intérêt du facteur de Bayes est exploré et différentes variantes selon l'absence ou la présence de données manquantes sont comparées. Différents types d'imputations multiples sont ensuite étudiés. Des modµeles de type méta-analyses sont également évalués. En analyse multivariéee, un modµele de type Partial Least Square est développé. Le modµele est appliqué sous une forme de modµele linéaire généralisé (régression logistique) et combiné avec l'algorithme Non Iterative Partial Least Squares, ce qui permet de gérer simultanément toutes les limites propres aux données d'alléotypage. Les propriétés de ce modµele sont explorées. Il est ensuite appliqué µa des données d'allélotypage portant sur 33 microsatellites de 104 patients porteurs d'un cancer du colon pour prédire le stade Astler-Coller de la tumeur. Un modµele avec toutes les interactions possibles entre couples de microsatellites est également réaliseé
Allelotyping data contain measures done using Polymerase Chain Reaction on a batch of DNA microsatellites in order to ascertain the presence or not of an allelic imbalance for this microsatellites. From a statistical point of view, those data are characterised by a high number of missing data (in case of homozygous microsatellite), square or °at matrices, binomial data, sample sizes which may be small with respect to the number of variables and possibly some colinearity. Frequentist statistical methods have a number of shortcomings who led us to choose a bayesian framework to analyse these data. For univariate analyses, the Bayes factor is explored and several variants according to the presence or absence of missing data are compared. Di®erent multiple imputations types are then studied. Meta-analysis models are also assessed. For multivariate analyses, a Partial Least Square model is developed. The model is applied under a generalised linear model (logistic regression) and combined with a Non Iterative Partial Least Squares algorithm which 3 makes it possible to manage simultaneously all the limits of allelotyping data. Properties of this model are explored. It is then applied on allelotyping data on 33 microsatellites of 104 patients who have colon cancer to predict the tumor Astler-Coller stage. A model with all possible microsatellites pairs interactions is also run
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Pommier, David. "Méthodes numériques sur des grilles sparse appliquées à l'évaluation d'options en finance." Paris 6, 2008. http://www.theses.fr/2008PA066499.

Повний текст джерела
Анотація:
Cette thèse regroupe plusieurs travaux relatifs à la résolution numérique d'équations aux dérivées partielles et d'équations intégro-différentielles issues de la modélisation stochastique de produits financiers. La première partie des travaux est consacrée aux méthodes de Sparse Grid appliquées à la résolution numérique d'équations en dimension supérieure à trois. Deux types de problèmes sont abordés. Le premier concerne l'évaluation d'options vanilles dans un modèle à sauts avec une volatilité stochastique multi-facteurs. La résolution numérique de l'équation de valorisation, posée en dimension est obtenue à l'aide d'une méthode de différences finies sparse et d'une méthode de collocation pour la discrétisation de l'opérateur intégral. Le second problème traite de l'évaluation de produits sur un panier de plusieurs sous-jacents. Il nécessite le recours à une méthode de Galerkin sur une base d'ondelettes obtenue à l'aide d'un produit tensoriel sparse La seconde partie des travaux concerne des estimations d'erreur a posteriori pour des options américaines sur un panier de plusieurs actifs
In this work, we present some numerical methods to approximate Partial Differential Equation(PDEs) or Partial Integro-Differential Equations (PIDEs) commonly arising in finance. This thesis is split into three part. The first one deals with the study of Sparse Grid techniques. In an introductory chapter, we present the construction of Sparse Grid spaces and give some approximation properties. The second chapter is devoted to the presentation of a numerical algorithm to solve PDEs on these spaces. This chapter gives us the opportunity to clarify the finite difference method on Sparse Grid by looking at it as a collocation method. We make a few remarks on the practical implementation. The second part of the thesis is devoted to the application of Sparse Grid techniques to mathematical finance. We will consider two practical problems. In the first one, we consider a European vanilla contract with a multivariate generalisation of the one dimensional Ornstein-Ulenbeck-based stochastic volatility model. A relevant generalisation is to assume that the underlying asset is driven by a jump process, which leads to a PIDE. Due to the curse of dimensionality, standard deterministic methods are not competitive with Monte Carlo methods. We discuss sparse grid finite difference methods for solving the PIDE arising in this model up to dimension 4. In the second problem, we consider a Basket option on several assets (five in our example) in the Black & Scholes model. We discuss Galerkin methods in a sparse tensor product space constructed with wavelets. The last part of the thesis is concerned with a posteriori error estimates in the energy norm for the numerical solutions of parabolic obstacle problems allowing space/time mesh adaptive refinement. These estimates are based on a posteriori error indicators which can be computed from the solution of the discrete problem. We present the indicators for the variational inequality obtained in the context of the pricing of an American option on a two dimensional basket using the Black & Scholes model. All these techniques are illustrated by numerical examples
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Bresson, Florent. "Essais sur les méthodes d'analyse des variations de la pauvreté." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2007. http://tel.archives-ouvertes.fr/tel-00196851.

Повний текст джерела
Анотація:
Alors que la lutte contre la pauvreté est devenue l'objectif prioritaire des politiques de développement, les outils dont nous disposons pour analyser ce phénomène et proposer des recommandations de politiques économique semblent encore incomplets ou sujets à caution. La présente thèse constitue une analyse technique et normative desméthodes employées pour décomposer les variations de la pauvreté en composantes respectivement associées à la croissance du revenumoyen et aux évolutions du degré d'inégalités. Les chapitres 1 à 3 s'intéressent aux problèmes de méthode que l'on peut rencontrer pour l'estimation d'élasticités croissance et inégalités de la pauvreté. Le chapitre 1 est une revue critique des différentes approches développées dans la littérature pour estimer ces élasticités, à savoir les approches « comptable », « analytique » et économétrique. Le chapitre 2montre l'importance des formes fonctionnelles utilisées pour le calcul des élasticités de la pauvreté lorsque l'intégralité de l'information relative à la distribution des revenus n'est pas disponible. Nous proposons ensuite dans le chapitre 3 une famille de transformations de la courbe de Lorenz permettant une formulation analytique, pour différentesmesures de pauvreté et d'inégalités, des élasticités inégalités de la pauvreté. Enfin, le chapitre 4 aborde sous l'angle normatif le cadre analytique sur lequel repose cette distinction stricte des effets de la croissance et de la redistribution, etmet en lumière l'importance des a priori éthiques individuels dans la décomposition des variations observées de la pauvreté.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Veltz, Romain. "Méthodes d'analyse non-linéaires pour les modèles de champs neuronaux." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00850266.

Повний текст джерела
Анотація:
L'objectif de cette thèse est la compréhension et la modélisation du cortex visuel des mammifères avec des modèles à taux de décharge, appelés les champs neuronaux, où les fines spécificités du calcul neuronal sont négligées. Cette thèse est divisée en trois parties, deux parties théoriques et une plus appliquée. Dans la première partie, nous examinons les états stationnaires des équations des champs neuronaux en utilisant des outils topologiques et la théorie des bifurcations. Nous sommes particulièrement intéressés par le nombre de ces états étant donné un stimulus parce que tous ces états sont des représentations corticales du stimulus. Toutefois, selon les paramètres, les équations du champ de neurones peuvent avoir des solutions stationnaires multiples qui sont autant de représentations corticales du stimulus. Si plus d'une solution stable existe, nous avons montré comment distinguer une de ces activités corticales comme étant la représentation '' principale'' du stimulus et les autres comme des illusions neuronales. L'étude aboutit à un schéma numérique pour calculer les différentes solutions stationnaires du réseau de champ de neurones en utilisant plusieurs paramètres de continuation : ce schéma est utile pour sa capacité à détecter les bifurcations Saddle-Node. Dans la deuxième partie de cette thèse, nous étudions les effets des retards de propagation de l'information, les principaux résultats théoriques étant la preuve d'un théorème de variété centrale. Cependant, le résultat le plus utile est une formule analytique pour les courbes de bifurcation de Hopf dans le plan (vitesse de propagation - délai synaptique). Ces courbes indiquent les paramètres qui produisent des oscillations spontanées des neurones. L'étude du réseau sans cette formule analytique est très laborieuse. Elle a été utilisée pour révéler la structure très complexe du diagramme de bifurcation dans les réseaux de neurones avec retards de propagation. Enfin, dans la dernière partie de cette thèse, nous étudions trois modèles de cortex visuel auxquels nous appliquons les outils développés dans les parties précédentes. Le premier modèle est le Ring Model of orientation tuning pour lequel nous avons découvert l'existence d'un seuil de perception et expliqué comment il peut être observé expérimentalement. Le second modèle étudié est celui Blumenfeld et al., très proche dans sa formulation du modèle précédent, et se fonde sur des données expérimentales (fournis par G. Masson et le laboratoire de F.Chavane à l'INT, Marseille, FRANCE). Nous avons montré comment les symétries imparfaites de la connectivité affectent les réponses du réseau. En particulier, nous avons montré comment le réseau parvient à produire une réponse en accord avec le stimulus malgré ses préférences internes. Enfin, le dernier modèle que nous avons étudié est un modèle de l'aire visuelle V1 que nous avons développé, dans la lignée du travail de Bressloff et al. Nous avons appliqué à ce modèle, les outils mathématiques et informatiques développés dans les parties précédentes. Ce nouveau modèle ne dispose pas d'une connectivité dépendant de l'orientation préférée des neurones. En particulier, nous avons montré que si la vitesse de propagation de l'information était trente fois plus lente, une instabilité pourrait se développer entraînant des illusions périodiques en temps.
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Letendre, Patrick. "Méthodes d'analyse des fonctions sur un corps de caractéristique p." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27169/27169.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Yu, Ping. "Méthodes instrumentales d'analyse de la dysphonie : corrélation avec l'analyse perceptive." Aix-Marseille 2, 2001. http://theses.univ-amu.fr.lama.univ-amu.fr/2001AIX20687.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Lachmann, Frédéric. "Méthodes d'analyse d'images médicales pour la reconnaissance de structures cérébrales." Tours, 1992. http://www.theses.fr/1992TOUR3301.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Jonchery, Alain. "Aromes des champignons : méthodes d'analyse, composition chimique et nouvelles perpectives." Paris 5, 1994. http://www.theses.fr/1994PA05P146.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Crouzy, Serge. "Méthodes d'analyse des signaux de Patch-Clamp à temps discret." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0005.

Повний текст джерела
Анотація:
L'objectif consiste a appliquer a des signaux echantillonnes des methodes connues d'analyse des signaux de patch-clamp a temps continu et de developper de nouvelles analyses sur des signaux tres bruites
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Cautres, René. "Discrétisation par volumes finis et méthodes de décomposition de domaine pour des problèmes de convection diffusion." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX10008.

Повний текст джерела
Анотація:
Il s'agit ici d'étudier la discrétisation de quelques modèles de problèmes de convection-diffusion : βut - [delta]u + div(vq(u)) + bu = ƒ(x,t,u), sur un ouvert borné [Oméga] de Rd, d = 2 ou d = 3. La partie I constituée de deux chapitres, est consacrée à la discrétisation par la méthode Volumes Finis dite centrée par mailles dans le cas β = 0 et β = 1, pour des problèmes non linéaires. On y étudie l'existence et l'unicité de la solution discrète ainsi que la convergence du schéma numérique par l'établissement d'estimations d'erreurs. La partie II constituée de deux chapitres, est consacrée à l'étude d'une version Volumes Finis de deux algorithmes de Décompostion de Domaines, l'algorithme Neumann-Neumann, et l'algorithme de Lions. L'algorithme de Lions est étudié dan le cas de grilles non conformes.
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Labastie-Coeyrehourcq, Karine. "Étude de méthodes d'analyse rapides de la structure moléculaire du polyéthylène." Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://tel.archives-ouvertes.fr/tel-00443616.

Повний текст джерела
Анотація:
La structure moléculaire des polyéthylènes se caractérise par des quantités de branchements longs et des répartitions de branchements courts différentes le long de leurs chaînes. A l'heure actuelle, les longues ramifications sont caractérisées principalement par rhéologie et la distribution des ramifications courtes, par des techniques de fractionnement par cristallisation. Nous avons exploré de nouvelles méthodes d'analyse : la rhéologie par transformée de Fourier, la rhéologie exponentielle et la cristallisation par auto-ensemencement (microscopie optique et DSC) qui présentent l'avantage d'être rapides, faciles à mettre en œuvre et d'utiliser peu de polymère.En rhéologie, le polymère est soumis à de grandes déformations en régime transitoire avec des rhéomètres classiques. En rhéologie par transformée de Fourier, des déformations dynamiques de grandes amplitudes sont appliquées et l'analyse porte sur l'évolution de la 3ième harmonique du spectre de la réponse en contrainte du polymère en fonction de l'amplitude de la déformation appliquée. En rhéologie exponentielle, une déformation augmentant exponentiellement au cours du temps est appliquée sur le matériau comme lors d'un écoulement en élongation. Cependant, cet écoulement reste un écoulement de cisaillement où les polymères, ramifiés ou linéaires, présentent un phénomène d'adoucissement à grande déformation. Ces méthodes révèlent alors qu'un écoulement en cisaillement est sensible à la présence d'une faible quantité de ramifications longues dès lors que de grands taux de cisaillement sont appliqués. Le principal frein au développement de ces méthodes est lié à l'absence de modèles théoriques pertinents permettant de déduire du comportement des polymères, une information structurale sur leurs chaînes. L'auto-ensemencement permet d'accélérer les cinétiques de cristallisation. La microscopie optique présente l'avantage par rapport à la DSC de pouvoir estimer, à chaque palier de cristallisation, la quantité de polymère cristallisé à l'équilibre thermodynamique. Par contre, elle fournit plus difficilement une information sur l'épaisseur des lamelles cristallines. Cependant, quelle que soit la technique utilisée, nous avons montré que l'auto-ensemencement permet de réduire les temps d'analyse tout en donnant des bases théoriques plus fiables pour l'analyse.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Bernard, Francis. "Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Повний текст джерела
Анотація:
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Farges, Christophe. "Méthodes d'analyse et de synthèse robustes pour les systèmes linéaires périodiques." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00132343.

Повний текст джерела
Анотація:
Cette thèse porte sur la commande robuste des systèmes linéaires périodiques qui constituent une classe particulière de systèmes variant dans le temps. Des dynamiques périodiques apparaissent dans de nombreux domaines des sciences de l'ingénieur tels que l'aéronautique, l'espace ou les systèmes de télécommunication. Des méthodes systématiques pour l'analyse et la synthèse robuste de ces systèmes sont proposées. Le cadre de travail choisi est celui de la théorie de Lyapunov et fait appel principalement à des outils numériques de type inégalités matricielles linéaires (LMI). La robustesse est envisagée de manière duale par la prise en compte d'incertitudes pouvant non seulement affecter le système à commander mais également le correcteur lui même. Ce dernier problème est traité par la synthèse d'ensembles convexes de correcteurs assurant un certain niveau de performances garanties vis-à-vis du système bouclé. La question de la structure temporelle du correcteur est également posée. Le correcteur doit il nécessairement être de même périodicité que le système? Est-il possible de réduire le nombre de paramètres à mémoriser? Pour répondre à ces différentes questions, nous avons défini la classe des correcteurs périodiques structurés dans le temps et développé des méthodes de synthèse adaptées. Les résultats théoriques sont illustrés sur le problème du maintien à poste autonome d'un satellite en orbite basse consistant à maintenir un satellite sur une orbite de référence excentrique malgré les différentes forces perturbatrices pouvant l'en écarter (frottement atmosphérique, effet de la distribution non-sphérique de la masse de la Terre). Différentes lois de commande minimisant certains critères de performances tels que la quantité de carburant consommée ou l'influence d'accélérations perturbatrices sont calculées. Leur qualité est ensuite évaluée à l'aide de simulations non-linéaires.
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Park, Soo-Uk. "Les Méthodes d'analyse par enveloppement des données : généralisations et applications nouvelles." Paris, EHESS, 1994. http://www.theses.fr/1994EHES0064.

Повний текст джерела
Анотація:
Notre recherche dans sa partie theorique presente la notion d'efficacite productive, qui est liee au probleme de la performance d'une entreprise sur un marche. Cette notion a ete depuis un certain temps l'objet de developpements importants. En particulier, la methode dea, qui repose sur la programmation lineaire. Toutes ces approches ont ete developpees sous une forme renouvelee, avec certains resultats originaux. La these se propose d'appliquer un certain nombre de variations de la methode dea a l'industrie coreenne de l'electricite. Elle se propose par ailleurs de tenter de degager la signification des efficacites dea mesurees sur l'echantillon des centrales de gestion, en introduisant ces efficacites dans des modeles econometriques de fonction de production
Our work, in its theoretical part, presents the concept of productive efficiency, which is linked to the problem of the performance of a production unit on a market. This concept has, for some time, been the object of important advances. In particular, dea methods, which rests on linear programming methods. All these approches have been developped under a renewed form, with some original results. This dissertation tries to apply some variants of the dea method to the corean industry of thermal electricity production. It proposes an attempt at obtaining the signification of these dea efficiency, as measured in our sample of power plants, by introducing these efficiencies as exogeneous variables in econometric production function models
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Nuez, Catherine. "Méthodes d'analyse en microdialyse cérébrale et sanguine par CLHP-SM-SM." Mulhouse, 1996. http://www.theses.fr/1996MULH0428.

Повний текст джерела
Анотація:
La microdialyse est un excellent outil pour définir la concentration de substances directement dans leur site d'action, à condition d'utiliser une méthode analytique suffisamment sensible et spécifique pour l'analyse de faibles quantités venant des faibles volumes de dialysats disponibles (25 à 60 microlitres, en général). Cette méthode analytique doit être suffisamment efficace pour déterminer la pharmacocinétique de médicaments. Les méthodes analytiques très courantes (CLHP-UV ou CLHP-détection électrochimique) ne sont pas toujours appropriées pour l'analyse de microdialysats, de par leur manque de sensibilité et surtout de spécificité. Le but du présent travail est de pallier cet inconvénient majeur en développant des méthodes analytiques sensibles et spécifiques par chromatographie liquide couplée à la spectrométrie de masse en tandem (peu utilisées jusqu'à présent dans ce domaine). Dans notre travail, deux types de microdialyse et trois composés sont utilisés : la microdialyse cérébrale dans le cortex frontal pour quantifier le passage des substances -W, Z et ENA- à travers la barrière hématoencéphalique ; la microdialyse sanguine dans la veine porte et la veine jugulaire afin d'étudier l'effet de premier passage intestinal ou hépatique de ENA. La détermination rapide de la concentration des échantillons de microdialyse est possible grâce à la chromatographie liquide couplée à la spectrométrie de masse en tandem par une interface thermospray (CLHP-TSP-SM-SM) pour les composés W et Z, et grâce à la spectrométrie de masse en tandem en mode injection directe, c'est à dire sans colonne chromatographique, pour ENA et son métabolite (MET). Ces deux méthodes analytiques sont optimisées de façon à obtenir le maximum de sensibilité et de spécificité pour chacune des substances à étudier. Quelle que soit la méthode utilisée, la réponse des composés W, Z, ENA et MET est linéaire avec d'excellentes limites de quantification (LOQ). La combinaison de telles méthodes avec la microdialyse, associée à la méthode de rétrodialyse pour le calcul du rendement des sondes de microdialyse, indique une pénétration cérébrale significative de Z et ENA, un passage de W à travers la barrière hématoencéphalique plus difficile, un effet de premier passage hépatique de ENA non négligeable et apparemment une métabolisation de ENA au niveau pré-hépatique.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Douzal-Chouakria, Ahlame. "Extension des méthodes d'analyse factorielle à des données de type intervalle." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090044.

Повний текст джерела
Анотація:
L’analyse factorielle permet d’extraire, à partir de données nombreuses, les tendances les plus marquantes. A l’aide de représentations graphiques, elle visualise des groupements, des oppositions, des tendances, impossibles à discerner directement sur un tableau de données. L’objectif de ce travail est d’étendre, deux méthodes en analyse factorielle, l’analyse en composantes principales et l’analyse des correspondances multiples, à des données de type intervalle. Dans la première partie de ce travail, on présente une extension de l’analyse en composantes principales à des données de type intervalle, mu nies éventuellement de contraintes de domaines. On propose deux nouvelles approches : la méthode des sommets et la méthode des centres. L’inertie prise en compte par chacune de ces méthodes est analysée puis comparée. Les paramètres d’aide à l’interprétation sont généralisés aux données intervalles. La visualisation ponctuelle des individus, dans les plans factoriels, se traduit ici par une visualisation de rectangles, segments ou points. On propose une procédure itérative qui fournit une visualisation des objets à différents niveaux de qualité de représentation. D’une part, on confronte dans un cadre probabiliste la méthode des sommets et la méthode des centres. D’autre part, on établit un rapprochement entre la méthode des sommets, la méthode Statis et l’analyse factorielle discriminante. Dans une deuxième partie, on s’intéresse à l’extension de l’analyse des correspondances multiples à des données intervalles. On propose trois techniques de codage de variables de type intervalle : le codage croisé, le codage par sommets et le codage sans décomposition. Les deux premières techniques se basent sur la décomposition des variables intervalles en variables numériques. La dernière technique se base sur l’extension d’outils de codage des variables numériques (fonction de répartition, histogramme, fonction d’appartenance, etc. ) à des données intervalles
Factorial analysis aims to extract and to visualize the main trends of a data set. The aim of this work is to extend principal component and correspondence analysis to interval data. In the first part of this work we present an extension of principal component analysis to interval data, with or without field constraints. We propose two novel methods called the vertices method and the centers method corresponding, respectively, to the within/between analysis and the between analysis. These methods are first compared in a probabilistic case, then a link is made between the vertices method, the Statis method and the discriminant factorial analysis. In the second part of this work, we extend the multiple correspondence method to interval data. To do so, we propose three new fuzzy coding techniques for interval variables: cross-coding, vertices coding and coding without decomposition. The first two are based on the decomposition of interval variables into numerical ones. The third technique is based on the extension of classical coding tools (histogram, probabilistic distribution function, membership function, etc. ) to interval distribution
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Souty, Cécile. "Méthodes d'analyse de données de surveillance épidémiologique : application au réseau Sentinelles." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066183.

Повний текст джерела
Анотація:
Les réseaux de surveillance en santé humaine reposent souvent sur des professionnels de santé (fournisseurs) volontaires organisés en réseau, qui rapportent les cas de maladie observés dans leur patientèle. Les caractéristiques de ces fournisseurs, leur répartition spatiale et leur participation ne peut pas être contrôlée: ils ne constituent pas un échantillon aléatoire. La représentativité est un point important lorsque l'information collectée n'est pas exhaustive, elle assure que le réseau fournit une représentation précise de la population touchée. Dans cette thèse, on s'intéresse aux méthodes de réduction du biais des estimations produites par un réseau de surveillance reposant sur des données fournies par un échantillon de professionnels de santé volontaires. Les travaux reposent sur l'expérience en France du réseau de médecin généralistes Sentinelles. L'estimateur de Horvitz-Thompson a été utilisé pour réduire le biais des estimations grâce à la définition des probabilités d'inclusion reposant sur la différence d'activité des médecins participants et non-participants. Nous avons également étudié l'impact de l'échantillonnage spatial des médecins grâce à des données simulées. Nous montrons l'utilisation de poids de sondage incluant la densité médicale locale permet de s'affranchir des variations temporelle et spatiale des fournisseurs. Enfin, les différentes méthodes de redressement proposées ont été appliquées pour l'estimation annuelle de l'efficacité du vaccin anti-grippal. Les différents travaux montrent l'apport de méthodes statistiques appropriées à l'utilisation de données collectées en médecine générale pour informer précisément les acteurs de santé publique
Disease surveillance networks are usually based on a group of health professionals or institutions which monitor one or more diseases. These data providers report cases seen among their patients. The characteristics of these providers, their spatial distribution and their participation to the network cannot be controlled: they are not a random sample of health professionals. Representativeness must be considered in networks where collected information are not exhaustive. It ensures that the network could provide an accurate representation of the population affected by the disease. In this thesis, we are interested in estimation methods for data produced by a surveillance network based on voluntary participation. The different works are based on the experience of the French practice-based Sentinelles network.The Horvitz-Thompson estimator was used to reduce the bias of incidence estimates. Inclusion probabilities were based on the difference in activity of participating and non-participating general practitioners in surveillance. We also study the impact of the spatial sampling of professionals participating to a surveillance network. By a simulation study, we show that sample weights based on local medical density eliminates the temporal and spatial variations of the providers. We ultimately applied these adjustments to estimate influenza vaccine effectiveness using data provided by GPs participating to the French Sentinelles network.These works show the contribution of appropriate statistical methods for epidemiological data collected in primary care to accurately inform public health authorities
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Nascimento, Pagliarini Samuel. "Méthodes d'analyse et techniques d'amélioration de fiabilité pour les circuits numériques." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0060/document.

Повний текст джерела
Анотація:
Au cours des dernières années, un développement continu a été observé dans les domaines des systèmes électroniques et des ordinateurs. Une série de mécanismes menaçant la fiabilité ont émergé. Par exemple, des défauts physiques provenant de fils mal lithographié, vias et d'autres dispositifs de bas niveau sont fréquemment observées dans les circuits nanométriques. D'autre part, les circuits sont également devenus plus sensibles aux grèves de particules excitées. Ces deux mécanismes, bien que essentiellement différente, peuvent causer de multiples fautes qui contribuent pour fiabilités plus faibles dans les circuits intégrés. Fautes multiples sont plus inquiétant que de simples car elles sont plus graves et aussi parce qu'ils peuvent surmonter les techniques de tolérance aux fautes. Les circuits numériques sont utilisés dans la plupart des systèmes électroniques aujourd'hui, mais il y a un contexte spécifique dans lequel ils doivent être fiable. Tel contexte comprend des applications de haute dépendabilité. Et cela est le scénario dans lequel cette thèse est conçu. Il a un double objectif: (a) de proposer des méthodes pour évaluer la fiabilité des circuits numériques, et (b) de proposer des techniques d'amélioration de la fiabilité. En ce qui concerne le premier objectif, plusieurs méthodes ont été proposées dans la littérature et le texte montre comment ces méthodes présentent des limitations en ce qui concerne la taille de circuit (nombre de portes), le type de circuit (séquentielle ou combinatoire) et le profil de faute (unique ou fautes multiples). Cette thèse propose deux méthodes pour l'évaluation de la fiabilité. La première méthode est appelée SPR+ et elle vise l'analyse de la logique combinatoire seulement. SPR+ améliore la précision de l'analyse, en tenant compte de l'effet de chaque nœud de fanout par rapport à la fiabilité de l'ensemble du circuit. Une autre méthode, appelée SNaP, est également proposé dans cette thèse. Il s'agit d'une approche hybride, car il est partiellement basée sur la simulation. SNaP peut être utilisé pour la logique combinatoire et séquentielle, et peut également être émulé dans un dispositif FPGA pour une analyse plus rapide. Les deux méthodes, SPR+ et SNAP, peuvent traiter de fautes multiples
With the current advances achieved in the manufacturing process of integrated circuits, a series of reliability-threatening mechanisms have emerged or have become more prominent. For instance, physical defects originating from poorly lithographed wires, vias and other low-level devices are commonly seen in nanometric circuits. On the other hand, circuits have also become more sensitive to the strikes of highly energized particles. Both mechanisms, although essentially different, can cause multiple faults that contribute for lower reliabilities in integrated circuits. Multiple faults are more troubling than single faults since these are more severe and also because they can overcome fault tolerance techniques. Digital circuits are used in most electronic systems nowadays, but there is a specific context in which they are required to be reliable. Such context comprises high-dependability applications. This is the scenario in which this thesis is conceived. It’s goals are twofold : (a) to pro pose methods to assess the reliability of digital circuits, and (b) to propose techniques for reliability improvement. Concerning the first goal, several methods have been proposed in the literature and the text shows how these methods present limitations with respect to circuit size (number of gates), circuit type (sequential or combinational) and fault profile (single versus multiple faults). This thesis proposes two methods for reliability assessment. The first method is termed SPR+ and its targeted at the analysis of combinational logic only. SPR+ improves the average analysis accuracy by taking into account the effect of each fanout reconvergent node to the overall circuit reliability. Another method, termed SNaP, is also proposed in this thesis. It is a hybrid approach since it is partially based on simulation. SNaP can be used for combinational and sequential logic and can also be emulated in an FPGA device for faster analysis. Both SPR+ and SNaP can cope with multiple faults
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Mezmaz, Mohand. "Une approche efficace pour le passage sur grilles de calcul de méthodes d'optimisation combinatoire." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Mezmaz.pdf.

Повний текст джерела
Анотація:
La résolution exacte de problèmes d'optimisation combinatoire de grande taille constitue un défi pour les grilles. En effet, il est nécessaire de repenser les algorithmes de résolution pour prendre en compte les caractéristiques de tels environnements. Notamment leur grande échelle. L'hétérogénéité et la disponibilité dynamique de leurs ressources. Et leur nature multi-domaine d'administration. Dans cette thèse, nous avons proposé une nouvelle approche de passage sur grilles des méthodes exactes de type Branch-and-Bound appelée B&B@Grid. Cette approche est basée sur un codage des unités de travail sous forme d'intervalles permettant de minimiser le coût des communications induites par les opérations de régulation de charge, de tolérance aux pannes et de détection de la terminaison. Cette approche. Environ 100 fois plus performante en terme de coût de communication que la meilleure approche connue. A permis la résolution optimale sur la grille nationale Grid5000 d'une instance standard du problème du Flow-Shop restée non résolue depuis une quinzaine d'années. Pour accélérer la résolution. Nous avons également étudié la coopération sur la grille de la méthode exacte avec une méta-heuristique parallèle hybride. Deux modes de coopération ont été considérés : le mode relais où la méta-heuristique est exécutée avant la méthode exacte, le mode co-évolutionnaire où les deux méthodes sont exécutées en parallèle. La mise en oeuvre d'une telle coopération sur la grille nous a amené il proposer une extension du modèle de coopération Linda
The exact resolution of large combinatorial optimization problems is a challenge for grids. Indeed, it is necessary to rethink the resolution algorithms to take into account the characteristics of such environments, in particular their large-scale, the heterogeneity and the dynamic availability of their resources, and their multi-domain administration. Ln this thesis, we propose a new approach, called B&B@Grid, to adapt exact methods for grids. This approach is based on coding work units in the form of intervals in order to minimize the cost of communications caused by the operations of load balancing, fault tolerance and detection of termination. This approach, about 100 times more efficient than the best known approach in term of communication cost, led to the optimal resolution on the Grid5000 of a standard instance of the Flow-Shop problem remained unsolved for fifteen years. To accelerate the resolution, we also deal with cooperation on the grid of exact methods with meta-heuristics. Two cooperation modes have been considered: the relay mode where a meta-heuristic is performed before an exact method, and the co-evolutionary mode where both methods are executed in parallel. The implementation of this cooperation on a grid has led us to propose an extension of the Linda coordination model
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Blanc, Philippe. "Méthodes de volumes finis pour les équations de Stokes." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11026.

Повний текст джерела
Анотація:
Le but de ce travail est d'analyser et de comparer trois méthodes de volumes finis pour les équations de Stokes. Pour la première, on utilise un maillage structuré de type "MAC". On prouve alors la convergence du schéma avec un second membre dans H^{-1} et on obtient des estimations d'erreur d'ordre 1 ou 2 suivant la régularité du maillage et de la solution. La deuxième méthode est basée sur un maillage triangulaire. On obtient alors la convergence du schéma et une estimation d'erreur d'ordre 1 si les triangles sont équilatéraux. Enfin, la dernière utilise un maillage polygonal presque quelconque. Elle coïncide avec la précédente dans le cas d'un maillage formé de triangles équilatéraux. Pour cette dernière on a encore obtenu la convergence du schéma. On a ensuite comparé ces trois méthodes sur trois cas test, dont la cavité entraînée et les tourbillons de Green-Taylor, et différents maillages : le maillage "MAC" pour la première méthode, deux maillages triangulaires pour les deux autres et un maillage rectangulaire pour la dernière.
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Burtea, Cosmin. "Méthodes d'analyse de Fourier en hydrodynamique : des mascarets aux fluides avec capillarité." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1047/document.

Повний текст джерела
Анотація:
Dans la première partie de cette thèse on étudie les systèmes abcd qui ont été dérivés par J.L. Bona, M. Chen et J.-C. Saut en 2002. Ces systèmes sont des modèles approximant le problème d'ondes hydrodynamiques dans le régime de Boussinesq, à savoir, des vagues de faible amplitude et de grande longueur d'onde. Dans les deux premiers chapitres on considère le problème d'existence en temps long à savoir la construction de solutions pour les systèmes abcd qui ont leur temps d'existence minoré par $1/varepsilon$ où $varepsilon$ est le rapport entre une amplitude typique du vague et la profondeur du canal. Dans un premier temps on considère des données initiales appartenant aux espaces de Sobolev qui sont inclus dans l'espace des fonctions continues qui s'annulent à l'infini. D'un point de vue physique cette situatuion correspond à des vagues sont localisées en espace. Le point clé est la construction d'une fonctionnelle non linéaire d'énergie qui contrôle certaines normes de Sobolev sur un intervalle de temps long. Pour y arriver, on travaille avec des équations localisées en fréquence. Cette approche nous permet d'obtenir des résultats d'existence en temps long en demandant moins de régularité sur les données initiales. Un deuxième avantage de notre méthode est que l'on peut traiter d'une manière unifiée presque tous les cas correspondant aux différentes valeurs des paramètres abcd. Dans le deuxième chapitre on montre des résultats d'existence en temps long pour le cas des données ayant un comportement non trivial à l'infini.Ce type des données est relevant pour l'étude de la propagation des mascarets. L'idée qui est à la base de ces résultats est de considérer un découpage convenable de la donnée initiale en hautes et basses fréquences. Dans le troisième chapitre on emploie des schémas de volumes finis afin de construire des solutions numériques. On utilise ensuite nos schémas pour étudier l'interaction d'ondes progressives.La deuxième partie de ce manuscrit est consacrée à l'étude des problèmes de régularité optimale pour le système de Navier-Stokes qui régi l'évolution d'un fluide incompressible, inhomogène et pour le système Navier-Stokes-Korteweg utilisé pour prendre en compte les effets de capillarité. Plus précisément, on montre que ces systèmes sont bien-posés dans leurs espaces critiques, à savoir, les espaces quiont la même invariance par changement d'échelle que les systèmes eux-mêmes. Pour pouvoir démontrer ce type de résultats on a besoin d'établir de nouvelles estimations pour un problème de type Stokes avec des coefficients variables
The first part of the present thesis deals with the so -called abcd systems which were derived by J.L. Bona, M. Chen and J.-C. Saut back in 2002. These systems are approximation models for the waterwaves problem in the Boussinesq regime, that is, waves of small amplitude and long wavelength. In the first two chapters we address the long time existence problem which consists in constructing solutions for the Cauchy problem associated to the abcd systems and prove that the maximal time of existence is bounded from below by some physically relevant quantity. First, we consider the case of initial data belonging to some Sobolev spaces imbedded in the space of continuous functions which vanish at infinity. Physically, this corresponds to spatially localized waves. The key ingredient is to construct a nonlinear energy functional which controls appropriate Sobolev norms on the desired time scales. This is accomplished by working with spectrally localized equations. The two important features of our method is that we require lower regularity levels in order to develop a long time existence theory and we may treat in an uni ed manner most of the cases corresponding to the di erent values of the parameters. In the second chapter, we prove the long time existence results for the case of data thatdoes not necessarily vanish at in nity. This is especially useful if one has in mind bore propagation. One of the key ideas of the proof is to consider a well-adapted high-low frequency decomposition of the initial data. In the third chapter, we propose infinite volume schemes in order to construct numerical solutions. We use these schemes in order to study traveling waves interaction.The second part of this manuscript, is devoted to the study of optimal regularity issues for the incompressible inhomogeneous Navier-Stokes system and the Navier-Stokes-Korteweg system used in order to take in account capillarity effects. More precisely, we prove that these systems are well-posed in their truly critical spaces i.e. the spaces that have the same scale invariance as the system itself. Inorder to achieve this we derive new estimates for a Stoke-like problem with time independent variable coefficients
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Patrice, Estellé. "Méthodes d'analyse inverse des données d'écoulement de compression de fluides complexes homogènes." Phd thesis, INSA de Rennes, 2004. http://tel.archives-ouvertes.fr/tel-00642094.

Повний текст джерела
Анотація:
L'écoulement de compression peut permettre de caractériser le comportement rhéologique de fluides complexes, notamment en présence de fluides fermes, de fluides de structure fragile, ou de fluides présentant un caractère glissant aux parois. Ce test s'avère complémentaire aux appareils traditionnels de rhéométrie et trouve son intérêt dans la facilité de sa mise en oeuvre et dans la richesse des informations enregistrées au cours d'un essai. Cependant, le caractère non viscosimétrique de l'écoulement induit contribue à complexifier le traitement des données. Nos travaux visent à développer une méthode d'identification inverse du comportement rhéologique fondée sur une approche énergétique de l'écoulement, afin d'identifier les propriétés de fluides homogènes à seuil. Cette approche met en évidence la relation qu'il existe entre les paramètres caractéristiques de l'essai - effort de compression, vitesse, hauteur de l'échantillon -, les paramètres de la loi de comportement du fluide testé et un taux de déformations moyen. Cette relation permet de proposer l'estimation du taux de déformations moyen caractéristique du cisaillement moyen au sein de l'échantillon testé. Cette estimation est réalisée à chaque instant de l'essai en présupposant la forme de la loi de comportement du fluide. Notre choix s'est porté sur un modèle rhéologique simple et général : le modèle de Bingham dont les solutions analytiques des écoulements adhérent et glissant avec frottement sont construites. Le processus d'identification inverse de l'état de contrainte et de taux de déformation équivalent associé à chaque configuration du test est mis en oeuvre sous la forme d'algorithmes intégrant un calcul itératif. De tels algorithmes de calcul ont été développés de façon à construire point par point la courbe d'écoulement caractéristique du comportement apparent du fluide testé en présence d'un écoulement adhérent ainsi que son comportement tribologique dans le cas d'un écoulement glissant avec frottement. Le principe de la méthode inverse, ainsi que les algorithmes de calcul ont été testés et validés dans un premier temps en ayant recours à des données simulées de compression de fluides modèles en écoulement adhérent ou glissant. Dans un deuxième temps, les outils d'analyse ont été appliqués avec succès aux données expérimentales de compression de différents fluides, en étudiant l'influence de la configuration d'essai (tests à rayon et volume constant, variation de la vitesse de compression et de la hauteur de l'échantillon). Ces essais ont été réalisés sur un analyseur de texture commercial dont l'utilisation n'a pu être envisagée qu'après optimisation de son fonctionnement. Les résultats obtenus, confrontés aux données traditionnelles de rhéométrie, montrent la pertinence de la méthode inverse développée et en complètent la validation. Finalement, une optimisation des algorithmes de calcul est proposée.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Przybylski, Cédric. "Développement de nouvelles méthodes d'analyse d'oligosaccharides anioniques bioactifs par spectrométrie de masse." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0001.

Повний текст джерела
Анотація:
Les interactions non-Covalentes entre des protéines et des polysaccharides anioniques tels que les glycosaminoglycanes (GAGs) interviennent dans de nombreux processus physio-Pathologiques tels que la signalisation, la reconnaissance cellulaire, les infections bactériennes et virales ou lors de la progression des cancers. Une des difficultés pour comprendre les mécanismes moléculaires mis en jeu lors de ces interactions réside dans le déchiffrage des informations structurales contenues dans les GAGs. Cette tâche est délicate, surtout en raison du degré variable d'acétylations et de sulfatations de ces GAG's, constituant des limitations importantes pour l'avancée des recherches en glycobiologie. Pour contourner ces restrictions, des méthodes analytiques fines et innovantes, telles que la spectrométrie de masse (MS) offrent de nombreux avantages. Durant cette thèse, trois approches originales basées sur la MS ont été developpées. La première a consisté à synthétiser de nouvelles matrices ioniques liquides limitant la désulfatation et favorisant l'obtention de dépôt homogène pour l'analyse par UV-MALDI-TOF. La seconde a montré le potentiel d'une méthode d'ionisation douce récemment introduite, la désorption ionisation assistée par électronébulisation (DESI) permettant l'analyse directe et en conditions ambiantes d'oligosaccharides anioniques seuls ou sous forme de complexes avec une protéine. Enfin, la troisième a nécessité la fabrication de puces à protéines ou à saccharides pour lanalyse de complexes protéines/GAG en utilisant le couplage de la résonance plasmonique de surface avec la MS (SPR-MS). Ce couplage permet d'effectuer le suivi en temps réel de la formation de complexes entre des protéines et des GAGs, d'en déterminer les constantes de la dissociation, puis de détecter directement par UV-MALDI-TOF les ligands, qu'ils soient de nature protéique ou saccharidique
The non-Covalent interactions between proteins and anionic polysaccharides such as glycosaminoglycans (GAGs) are involved in several physio-Pathological processes such as cell signalling and recognition, bacterial and viral infections or during cancer progression. One of the obstacles to get the molecular mechanisms involved during these interactions hold in the structural information deciphering within GAG's sequences. This task is delicate especially because of variable level of acetylations and sulfations, constituting important bottleneck in the research advances of the glycobiology field. To bypass these restrictions, accurate and innovative analytical methods such as mass spectrometry (MS) provide numerous advantages. During this Ph.D training, three original MS based approaches have been developed. The first dealt with the synthesis of new ionic liquid matrices, which both restrict desulfation process and favour the homogeneous deposits for UV-MALDI-TOF analysis. The second way used a soft recently introduced ionization method, desorption electrospray ionization (DESI) allowing direct analysis in ambient conditions of anionic oligosaccharides or under complexes with protein. Finally, the third involved the making of protein or saccharide chips for the analysis of protein / GAG complexes using the hyphenation of surpface plasmon resonance with MS (SPR-MS). Thos coupling allows real time monitoring protein / GAG complexes formation, their dissociation constant determination and the direct detection of protéic as wall as saccharidic ligands by UV-MALDI-TOF
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Kabir, Shahid. "Méthodes d'analyse d'images pour l'évaluation de la dégradation des structures en béton." Thèse, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1819.

Повний текст джерела
Анотація:
The evaluation of the condition of infrastructure requires the development and optimization of alternative inspection methods for assessing surface deterioration in order to obtain accurate and quantitative information to supplement visual inspections. To this end, non-destructive methods that produce image data show great potential and are increasingly being used in concrete applications. These methods, based on IR thermography and greyscale and colour imaging, are generally cost and time effective and are relatively easy to employ. There is, however, a need for efficient image analysis techniques to extract relevant damage information from the imagery. In this context, this research proposes the use of grey level co-occurrence matrix statistical texture analysis in combination with Haar's wavelet analysis for improved defect detection. Two classifiers are proposed, the supervised multi-layer perceptron artificial neural network and the unsupervised K -means clustering approach, for evaluation of their effectiveness in characterizing the deterioration from the imagery. These techniques are applied to thermographic, colour and greyscale imagery of laboratory specimens and field samples exhibiting different levels of concrete deterioration. Further experiments are conducted on borehole acoustic imagery involving the additional techniques of spatial filters and edge-detectors in an effort to determine their efficiency in detecting concrete damage.The results demonstrate that the hybrid texture approach is quite effective for defect discrimination. They also indicate that the lowpass and median spatial filters performed better than the gradient-based and Laplacian edge-detectors; however, the texture approaches outperformed all of the other techniques.The artificial neural network was found to provide better classification accuracies compared with the K -means algorithm. Concerning the imagery, the thermography produced more accurate results than the colour and greyscale imagery.The information derived from the imagery consists of total surface damage; for map-crack imagery, the total length of cracks and range of crack width openings were also computed.The damage quantities obtained for the laboratory specimens show good correlation with test measurements recorded for the specimens, such as expansion and impact-echo velocities.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії