Добірка наукової літератури з теми "Agrégation de modèles"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Agrégation de modèles".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Agrégation de modèles":

1

Diouf, Abdoulaye, Nicolas Barbier, Ali Mahamane, Jean Lejoly, Mahamane Saadou, and Jan Bogaert. "Caractérisation de la structure spatiale des individus ligneux dans une « brousse tachetée » au sud-ouest du Niger." Canadian Journal of Forest Research 40, no. 4 (April 2010): 827–35. http://dx.doi.org/10.1139/x10-031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La structure spatiale des végétations périodiques en zones arides est liée, selon des modèles d’auto-organisation, à des processus locaux (facilitation ou compétition). La présente étude visait à vérifier l’importance de ces processus et le rôle du Combretum micranthum G. Don à travers une description de la distribution spatiale des ligneux d’une brousse tachetée au sud-ouest du Niger à l’aide de la fonction K de Ripley. L’organisation spatiale des ligneux révèle une structure à deux échelles : (i) agrégative (rayon moyen, 9–15 m) et (ii) répulsive (vers 35 m), correspondant au patron périodique d’ensemble. Seul le C. micranthum présente une distribution similaire, suggérant un rôle d’espèce « clé de voûte », déterminant la structure d’ensemble. Une agrégation locale d’espèces secondaires autour du C. micranthum suggère fortement une facilitation de portée (1–3 m) proportionnelle au rayon moyen du houppier des arbustes matures, conformément aux prédictions des modèles et aux études empiriques de la dynamique hydrique du sol. L’absence de relation spatiale entre le C. micranthum et les autres espèces de la famille des Combretaceae formant entre elles des agrégats suggère l’existence d’une structure à trois composantes. Ces éléments permettront d’aiguiller les démarches empiriques et d’améliorer les modèles, lesquels s’avèrent indispensables pour la gestion des végétations sahéliennes face aux contraintes d’aridité et d’exploitation.
2

Dagum, Camilo. "Répartition personnelle et fonctionnelle des revenus: une approche intégrée." Études internationales 29, no. 2 (April 12, 2005): 239–65. http://dx.doi.org/10.7202/703876ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif principal de cette étude est de concevoir une approche intégrée de la répartition personnelle et fonctionnelle du revenu. Les hypothèses de base sur lesquelles reposent les théories et modèles de répartition personnelle et fonctionnelle du revenu sont discutées. Une liaison entre la répartition personnelle et fonctionnelle du revenu est réalisée grâce à l'introduction d'une fonction non linéaire micro-économique génératrice du revenu (FGR) en termes de capital humain et de richesse. La fonction FGR en question est caractérisée par un taux marginal de substitution technique positif, décroissant et convexe et par une élasticité de substitution variable. La FGR permet l'estimation des taux de rendement du capital humain et de la richesse et la répartition personnelle et fonctionnelle du revenu. Par agrégation, ces résultats sont obtenus pour l'ensemble de l'économie nationale.
3

Marina, Yefimova, Celia Ravel, Neyroud Anne-Sophie, Emile Béré, and Nicolas Bourmeyster. "Les myélinosomes : une nouvelle voie du contrôle de qualité des protéines." médecine/sciences 36, no. 11 (November 2020): 1012–17. http://dx.doi.org/10.1051/medsci/2020173.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Deux voies de dégradation des protéines mal repliées sont classiquement décrites : la voie du protéasome et la voie de l’autophagie. Nous décrivons ici une nouvelle voie de protéostase cellulaire ne dégradant pas la protéine anormale mais l’expulsant hors de la cellule grâce à des nanovésicules appelées myélinosomes. Ces myélinosomes sont produits par la cellule dans des situations pathologiques ou de stress en lien avec des facteurs génétiques ou environnementaux. Sur le plan morphologique, les myélinosomes sont caractérisés par des membranes osmiophiles denses aux électrons dont l’arrangement empilé est semblable à celui de la myéline et présente jusqu’à 30 feuillets selon le type de cellule. Dans deux modèles, au moins, de maladies génétiques (la maladie de Huntington et la mucoviscidose), les myélinosomes sont importants pour éliminer les protéines mutées par un processus sécrétoire inhabituel, évitant ainsi leur agrégation dans les cellules.
4

Didry, Claude. "La production juridique de la convention collective: La loi du 4 mars 1919." Annales. Histoire, Sciences Sociales 56, no. 6 (December 2001): 1253–82. http://dx.doi.org/10.1017/s0395264900033977.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RésuméL’objet de cet article est d’explorer les ressorts du travail juridique qui conduisit à l’élaboration de la catégorie légale de convention collective en France. À la fin du XIXe siècle, la réflexion juridique, partant des limites de l’institution syndicale, identifia d’autres modèles de la collectivité. À côté de celle fondée sur l’existence préalable d’une personne morale collective, le syndicat, les juristes envisagèrent un type de collectivité moins formalisé, le « groupement », défini comme la base de la représentation des travailleurs dans la conciliation et l’arbitrage des nombreuses grèves qui se déroulaient en dehors de toute présence syndicale. Ils devaient composer enfin avec la conception de la collectivité comme agrégation d’engagements individuels volontaires, inhérente au monde du droit civil. La loi de 1919, en ajustant ces trois conceptions de la collectivité, fit du « groupement » le lieu d’action du syndicat. Elle orienta pour longtemps le devenir du mouvement ouvrier français, en ancrant l’activité syndicale dans le fonctionnement d’instances représentatives élues du personnel.
5

De Almeida, David. "Agrégation des données pour l'évaluation des performances de systèmes flexibles de production par modèles à réseaux de files d'attente." RAIRO - Operations Research 32, no. 2 (1998): 145–92. http://dx.doi.org/10.1051/ro/1998320201451.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Morris, John N., Iain Carpenter, Katherine Berg, and Richard N. Jones. "Outcome Measures for Use with Home Care Clients." Canadian Journal on Aging / La Revue canadienne du vieillissement 19, S2 (2000): 87–105. http://dx.doi.org/10.1017/s071498080001391x.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RÉSUMÉAvant les années 1990, la plupart des recherches portant sur l'évaluation des résultats des programmes de soins à domicile, notamment sur les efforts pour retarder le placement, maintenir le fonctionnement et assurer l'autonomie des aîné(e)s, ne reposaient pas sur des fondements théoriques. Les résultats attendus des programmes étaient rarement mentionnés. L'élaboration de nouvelles politiques exige maintenant une évaluation complète des besoins et une agrégation des données recueillies. Depuis qu'un nombre croissant de patients quittent l'hôpital avec des problèmes cliniques complexes et que les objectifs de réhabilitation deviennent plus étendus, on assiste à une explosion des services de soins à domicile. Les modèles de soins sociaux, bien que toujours en cours, ne constituent désormais qu'une mince part du marché des soins offerts à domicile. Dans cet environnement en mutation, la pertinence des programmes de soins dans les établissements ou des autres soins dispensés suite à une maladie grave soulève de nouvelles interrogations. On s'interroge également sur les déplacements des clients entre les diverses installations de soins suite à des maladies graves. Cet article décrit un ensemble de mesures fonctionnelles, comportementales et sociales proposées en lien avec l'évaluation des effets des programmes de soins faisant suite à une longue maladie. L'instrument normalisé de collecte de données utilisé est le Resident Assessment Instrument for Home Care (RAI-HC). L'article présente un résumé des mesures proposées et témoigne de la validité de groupes identifiés à partir d'un échantillon national des clients de soins à domicile. Les données soulignent les différentes caractéristiques des clients entre les organismes et attestent que le RAI-HC permet de recueillir des données fiables et valides pour décrire les populations et évaluer l'efficacité des programmes.
7

Laurent, Marie-Alexandre, and Isabelle Thomas. "Modèle d'interaction spatiale et agrégation des lieux [L'exemple des données criminelles]." Espace géographique 26, no. 3 (1997): 269–79. http://dx.doi.org/10.3406/spgeo.1997.1082.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Artus, Patrick, and Eric Bleuze. "Les choix de portefeuille des ménages en France." Recherches économiques de Louvain 55, no. 2 (1989): 129–53. http://dx.doi.org/10.1017/s0770451800029596.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RésuméAprès avoir exposé le modèle théorique de choix de portefeuille en avenir incertain, nous essayons de comprendre les choix de portefeuille des ménages en France de 1970 à 1986, en explicitant les divergences par rapport au modèle théorique. Nous retenons une agrégation en trois actifs: liquidités, obligations et actions, en supposant donnée l’épargne financière des ménages. Les principales questions auxquelles l’étude apporte des éléments de réponse sont: (i) Quelle perception ont les ménages de rendements des actions, en particulier des plus-ou moins-values potentielles? (ii) Quelles sont les motivations des ménages dans leur détention de parts OPCVM (organismes de placement collectif en valeurs mobilières: fonds communs de placement)? Ces parts d’OPCVM sont-elles un actif bien distinct des autres en terme de rendement et de risque? (iii) Quels sont les coûts d’ajustement perçus par les ménages? Portent-ils sur la richesse accumulée et/ou l’épargne nouvelle? (iv) Quel est le poids des variables institutionnelles?
9

VEISSIER, I., R. BOTREAU, and P. PERNY. "Évaluation multicritère appliquée au bien-être des animaux en ferme ou à l’abattoir : difficultés et solutions du projet Welfare Quality®." INRAE Productions Animales 23, no. 3 (September 14, 2010): 269–84. http://dx.doi.org/10.20870/productions-animales.2010.23.3.3308.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face au développement en Europe de programmes de certification d’élevages mettant en avant le respect du bien-être animal, le projet Welfare Quality® a proposé à l’Union Européenne d’établir un modèle d’évaluation globale des exploitations (fermes ou abattoirs) au regard du bien-être des animaux. Ce modèle repose sur une évaluation multicritère dans laquelle 12 critères de bien-être, regroupés en 4 principes, ont été définis. Après avoir identifié les mesures nécessaires pour vérifier qu’une exploitation est conforme aux différents critères, le modèle a été progressivement construit. Il aboutit à un classement des exploitations en quatre catégories reflétant le niveau de bien-être (d’excellent à très faible). Pour ce faire, des méthodes multicritères ont été utilisées, évitant ainsi les écueils d’une agrégation naïve de l’information (comme les sommes pondérées qui autorisent les pleines compensations entre critères, ce qui n’est pas compatible avec le concept de bien-être). Différentes personnes (chercheurs en sciences animales ou sociales, porteurs d’enjeux) ont été consultées au moyen de jeux de données virtuelles sur lesquelles elles devaient donner une appréciation. Le modèle a été développé et paramétré afin de refléter ces appréciations. Une analyse a posteriori des résultats produits montre que le modèle accorde la priorité aux animaux en moins bon état tout en tenant compte de l’état moyen du troupeau, et qu’il limite fortement les compensations entre critères. Cet exemple montre qu’en suivant cette méthodologie rigoureuse, il est possible d’aider l’évaluation d’un concept multidimensionnel, même si cet exercice comporte des choix de valeurs qu’il convient d’expliciter et de modéliser. La méthodologie suivie pour construire ce modèle d’évaluation du bien-être peut être transposée pour évaluer d’autres concepts multidimensionnels comme la durabilité des systèmes de production.
10

Cazes, Sandrine, Thierry Chauveau, Jacques Le, and Rahim Loufir. "Retraites et évolutions démographiques en France. Première partie : Le long terme." Revue de l'OFCE 39, no. 1 (January 1, 1992): 93–149. http://dx.doi.org/10.3917/reof.p1992.39n1.0093.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Face au vieillissement probable de la population française au cours des prochaines décennies, les perspectives de financement de l'actuel régime public de retraite par répartition sont relativement sombres. Si la tendance à la stagnation de la population française se confirme, des choix devront être faits entre le maintien du système actuel, qui implique une augmentation — à terme assez substantielle — des taux de cotisations, et une modification de ses règles. Cet article propose un cadre d'évaluation des conséquences économiques à long terme de différents scénarios : il s'agit d'un modèle d'équilibre général calculable à générations imbriquées de l'économie française, qui, à partir d'hypothèses sur les préférences des ménages et sur l'environnement économique et institutionnel dans lequel ils prennent leurs décisions, permet de déterminer leurs comportements individuels d'offre de travail, de dépenses de consommation, d'épargne et d'accumulation au cours de leur cycle de vie. Les principales grandeurs macroéconomiques sont alors déduites par agrégation exacte des comportements individuels. Grâce à la détermination endogène de l'ensemble des décisions des ménages et des entreprises, un tel modèle permet de tenir compte des conséquences sur les choix d'activité, de consommation et d'épargne, de modifications institutionnelles telles que des réformes du régime de retraite. Après avoir présenté les résultats de quelques variantes démographiques, qui confirment que le système actuel ne serait véritablement viable à long terme que si la croissance de la population était positive, nous analysons les effets micro- et macroéconomiques de long terme de diverses options envisageables en matière de retraite. Tant la comparaison des conséquences macroéconomiques que l'analyse en termes de bien-être — individuel et social — nous incitent à conclure que, parmi les mesures étudiées et à supposer que la stagnation de la population française se confirme, le recul de l'âge légal de départ à la retraite apparaît comme nettement plus favorable que des alternatives telles que la réduction des prestations ou l'instauration d'un système pur de capitalisation.

Дисертації з теми "Agrégation de modèles":

1

Trifi, Amine. "Essais en agrégation, convergence et limites en temps continu des modèles GARCH." Paris 1, 2007. http://www.theses.fr/2007PA010057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse on investigue la limite en temps continu des modèles conditionnellement hétéroscédastiques GARCH. Dans une première partie on étudie l'agrégation des modèles GARCH et la genèse des GARCH faibles ainsi que l'agrégation temporelle de spécifications à volatilité stochastique (SR-SARV) contournant plusieurs limites des GARCH faibles. La seconde partie examine l'agrégation contemporaine ou individuelle des modèles GARCH et propose des méthodes d'estimation des représentations GARCH faibles. Dans la troisième partie, une analyse de la convergence faible et de la limite d'une séquence de semi-martingales est proposée. Quatre pertinentes applications en finance impliquant semi-martinagles et convergence faible illustrent l'analyse: AOA, évaluation d'options asiatiques, programmation dynamique, stratégies de minimisation locales du risque. La diffusion limite des GARCH faibles est ensuite confortablement abordée à la quatrième partie. Cette limite peut prendre plusieurs formes selon les conditions de convergence considérées. L'équivalence asymptotique des expériences statistiques des processus GARCH, à volatilité stochastique et de diffusion y est également éclairée.
2

Melquiond, Adrien. "Agrégation de peptides amyloïdes par des simulations numériques." Paris 7, 2007. http://www.theses.fr/2007PA077053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Chez l'homme, plus de vingt maladies (telles que la maladie d'Alzheimer ou le diabète de type II) sont associées à l'auto-assemblage pathologique de protéines solubles dans des oligomères cytotoxiques et des fibres amyloïdes. Ce processus est complexe, ce qui rend difficile la caractérisation structurale de ces intermédiaires et la détermination des chemins d'agrégation. Dans ce travail, nous examinons dans un premier temps la surface d'énergie libre et la dynamique d'assemblage pour des petits peptides amyloïdes (KFFE et le fragment 22-27 de l'amyline) en utilisant le champ de force gros-grains OPEP (Optimized Potential for Efficient peptide-structure Prédiction) associé à la technique d'activation-relaxation (ART) et à la dynamique moléculaire (MD). Ensuite, nous présentons des simulations de dynamique moléculaire d'échange (REMD) sur les dimères des peptides d'Alzheimer Abeta (1-40) et Abeta (1-42) et nous discutons le rôle de la région 23-28 dans la formation de la fibre. Enfin, nous suivons les premières étapes de la dissociation d'un oligomère Abeta (16-22) en présence d'inhibiteurs N-méthylés par des simulations de MD-OPEP
More than twenty human diseases, including Alzheimer's disease and dialysis-related amyloidosis, are associated with the pathological self-assembly of soluble proteins into transient cytotoxic oligomers and amyloid fibrils. Because this process is very complex, the detailed aggregation paths and structural characterization of the intermediate species remain to be determined. In this work, we first review our current understanding of the dynamics and free energy surface of the assembly of small amyloid-forming peptides (KFFE and the fragment 22-27 of amylin) using the OPEP coarse-grained protein force field (Optimized Potential for Efficient peptide-structure Prediction) coupled to the activation-relaxation technique (ART) and molecular dynamics (MD). Next, we present replica exchange MD simulations (REMD) on the dimers of Alzheimer's peptides Abeta (1-40) and Abeta (1-42) and discuss the rôle of amino acids 23-28 in fibril formation. Finally, we probe the first steps of Abeta (16-22) oligomer dissociation in the presence of N-methylated inhibitors by MD-OPEP simulations
3

Chebaro, Yassmine. "Agrégation des peptides et protéines amyloïdes par simulations numériques." Paris 7, 2010. http://www.theses.fr/2010PA077120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'agrégation des peptides en fibres et oligomères amyloïdes est la cause principale des maladies neurodégénératives. Nous nous intéressons dans cette thèse aux maladies à prions et Alzheimer. Les deux protéines impliquées dans ces pathologies sont respectivement les peptides Abeta et la protéine prion. Le processus d'auto-assemblage de ces protéines en oligomères toxiques est difficilement caractérisable par les techniques expérimentales à l'heure actuelle et la formation de fibres amyloïdes est un phénomène très lent, in vitro et in vivo. L'utilisation des simulations in silico est alors être un outil important pour une meilleure compréhension de l'assemblage pathologique. Dans ce travail, nous utilisons un champ de force (OPEP) basé sur un modèle de représentation réduite des acides aminés, permettant l'accès à des temps de simulations longs afin d'identifier les modifications structurales associées à l'assemblage amyloïde. Dans un premier temps, la présentation du modèle et de la fonction énergétique associée sont décrits, suivies de leurs validations sur des systèmes tests. Ensuite nous présentons les résultats de OPEP dans l'identification des propriétés structurales et thermodynamiques du peptide amyloïde Abeta(16-35), l'étude du mécanisme d'inhibition et de dissociation de fibrilles préformées en présence de peptides N-méthylés, et l'étude de deux systèmes modèles pour l'agrégation amyloïde. La troisième partie porte sur l'étude du mutant T183A de la protéine prion, responsable de la maladie de Creutzfeld-Jacob, sous formes de monomère et dimère, ainsi que sur l'agrégation de l'hélice Hl de la protéine prion, sous formes monomériques, dimériques et tétramériques
The aggregation of amyloid peptides and proteins is the hallmark of neurodegenerative disease. In this thesis, we were interested in the Alzheimer disease and the prion related diseases. The two proteins implicated in those pathologies are the Abeta peptides and the prion protein respectively. The self-assembly of these soluble proteins into toxix oligomers is difficult to caracterize using the actual experimental techniques and the formation of amyloid fibrils is a very slow process in vitro and in vivo. The use of in silico simulation methods is therefore a useful tool to a better understanding of the pathological assembly. In this work, we used the coarse-grained force field (OPEP) based on a reduced representation of the amino-acids, allowing the acccess to longer simulation times in order to identify the structural modifications associated with the amyloid assembly. First, we review the coarse-grained model and the energy function associated to it, followed by its validation on numerous Systems. Then, we present the results of OPEP on the identification of the structural and thermodynamical properties of the amyloid peptide Abeta(16-35), the study of the inhibition mechanism on a preformed fibril in the presence of N-methylated inhibitors, and finally the study of de novo synthesized model peptides of the amyloid aggregation. The last part of the work concerns the study of the prion protein and the effect of the T183A mutation, causing Creutzfeld-Jacob disease, on its structure and stability, in the monomeric and dimeric forms of the protein, as well as the aggregation properties of the Hl helix of the prion protein in its monomeric, dimeric and tetrameric states
4

Bourel, Mathias. "Agrégation de modèles en apprentissage statistique pour l'estimation de la densité et la classification multiclasse." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4076/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les méthodes d'agrégation en apprentissage statistique combinent plusieurs prédicteurs intermédiaires construits à partir du même jeu de données dans le but d'obtenir un prédicteur plus stable avec une meilleure performance. Celles-ci ont été amplement étudiées et ont données lieu à plusieurs travaux, théoriques et empiriques dans plusieurs contextes, supervisés et non supervisés. Dans ce travail nous nous intéressons dans un premier temps à l'apport de ces méthodes au problème de l'estimation de la densité. Nous proposons plusieurs estimateurs simples obtenus comme combinaisons linéaires d'histogrammes. La principale différence entre ceux-ci est quant à la nature de l'aléatoire introduite à chaque étape de l'agrégation. Nous comparons ces techniques à d'autres approches similaires et aux estimateurs classiques sur un choix varié de modèles, et nous démontrons les propriétés asymptotiques pour un de ces algorithmes (Random Averaged Shifted Histogram). Une seconde partie est consacrée aux extensions du Boosting pour le cas multiclasse. Nous proposons un nouvel algorithme (Adaboost.BG) qui fournit un classifieur final en se basant sur un calcul d'erreur qui prend en compte la marge individuelle de chaque modèle introduit dans l'agrégation. Nous comparons cette méthode à d'autres algorithmes sur plusieurs jeu de données artificiels classiques
Ensemble methods in statistical learning combine several base learners built from the same data set in order to obtain a more stable predictor with better performance. Such methods have been extensively studied in the supervised context for regression and classification. In this work we consider the extension of these approaches to density estimation. We suggest several new algorithms in the same spirit as bagging and boosting. We show the efficiency of combined density estimators by extensive simulations. We give also the theoretical results for one of our algorithms (Random Averaged Shifted Histogram) by mean of asymptotical convergence under milmd conditions. A second part is devoted to the extensions of the Boosting algorithms for the multiclass case. We propose a new algorithm (Adaboost.BG) accounting for the margin of the base classifiers and show its efficiency by simulations and comparing it to the most used methods in this context on several datasets from the machine learning benchmark. Partial theoretical results are given for our algorithm, such as the exponential decrease of the learning set misclassification error to zero
5

Ghattas, Badih. "Agrégation d'arbres de décision binaires : Application à la prévision de l'ozone dans les Bouches du Rhône." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Moulahi, Bilel. "Définition et évaluation de modèles d'agrégation pour l'estimation de la pertinence multidimensionnelle en recherche d'information." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30254/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La problématique générale de notre travail s'inscrit dans le domaine scientifique de la recherche d'information (RI). Les modèles de RI classiques sont généralement basés sur une définition de la notion de pertinence qui est liée essentiellement à l'adéquation thématique entre le sujet de la requête et le sujet du document. Le concept de pertinence a été revisité selon différents niveaux intégrant ainsi différents facteurs liés à l'utilisateur et à son environnement dans une situation de RI. Dans ce travail, nous abordons spécifiquement le problème lié à la modélisation de la pertinence multidimensionnelle à travers la définition de nouveaux modèles d'agrégation des critères et leur évaluation dans des tâches de recherche de RI. Pour répondre à cette problématique, les travaux de l'état de l'art se basent principalement sur des combinaisons linéaires simples. Cependant, ces méthodes se reposent sur l'hypothèse non réaliste d'additivité ou d'indépendance des dimensions, ce qui rend le modèle non approprié dans plusieurs situations de recherche réelles dans lesquelles les critères étant corrélés ou présentant des interactions entre eux. D'autres techniques issues du domaine de l'apprentissage automatique ont été aussi proposées, permettant ainsi d'apprendre un modèle par l'exemple et de le généraliser dans l'ordonnancement et l'agrégation des critères. Toutefois, ces méthodes ont tendance à offrir un aperçu limité sur la façon de considérer l'importance et l'interaction entre les critères. En plus de la sensibilité des paramètres utilisés dans ces algorithmes, est très difficile de comprendre pourquoi un critère est préféré par rapport à un autre. Pour répondre à cette première direction de recherche, nous avons proposé un modèle de combinaison de pertinence multicritères basé sur un opérateur d'agrégation qui permet de surmonter le problème d'additivité des fonctions de combinaison classiques. Notre modèle se base sur une mesure qui permet de donner une idée plus claire sur les corrélations et interactions entre les critères. Nous avons ainsi adapté ce modèle pour deux scénarios de combinaison de pertinence multicritères : (i) un cadre de recherche d'information multicritères dans un contexte de recherche de tweets et (ii) deux cadres de recherche d'information personnalisée. Le deuxième axe de recherche s'intéresse à l'intégration du facteur temporel dans le processus d'agrégation afin de tenir compte des changements occurrents sur les collection de documents au cours du temps. Pour ce faire, nous avons proposé donc un modèle d'agrégation sensible au temps pour combinant le facteur temporel avec le facteur de pertinence thématique. Dans cet objectif, nous avons effectué une analyse temporelle pour éliciter l'aspect temporel des requêtes, et nous avons proposé une évaluation de ce modèle dans une tâche de recherche sensible au temps
The main research topic of this document revolve around the information retrieval (IR) field. Traditional IR models rank documents by computing single scores separately with respect to one single objective criterion. Recently, an increasing number of IR studies has triggered a resurgence of interest in redefining the algorithmic estimation of relevance, which implies a shift from topical to multidimensional relevance assessment. In our work, we specifically address the multidimensional relevance assessment and evaluation problems. To tackle this challenge, state-of-the-art approaches are often based on linear combination mechanisms. However, these methods rely on the unrealistic additivity hypothesis and independence of the relevance dimensions, which makes it unsuitable in many real situations where criteria are correlated. Other techniques from the machine learning area have also been proposed. The latter learn a model from example inputs and generalize it to combine the different criteria. Nonetheless, these methods tend to offer only limited insight on how to consider the importance and the interaction between the criteria. In addition to the parameters sensitivity used within these algorithms, it is quite difficult to understand why a criteria is more preferred over another one. To address this problem, we proposed a model based on a multi-criteria aggregation operator that is able to overcome the problem of additivity. Our model is based on a fuzzy measure that offer semantic interpretations of the correlations and interactions between the criteria. We have adapted this model to the multidimensional relevance estimation in two scenarii: (i) a tweet search task and (ii) two personalized IR settings. The second line of research focuses on the integration of the temporal factor in the aggregation process, in order to consider the changes of document collections over time. To do so, we have proposed a time-aware IR model for combining the temporal relavance criterion with the topical relevance one. Then, we performed a time series analysis to identify the temporal query nature, and we proposed an evaluation framework within a time-aware IR setting
7

Thill, Antoine. "Agrégation des particules : structure, dynamique et simulation : application au cas d'un écoulement stratifié : l'estuaire du Rhône." Phd thesis, Aix-Marseille 3, 1999. http://tel.archives-ouvertes.fr/tel-00109390.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour objectif de comprendre et de mesurer les processus d'agrégation et leur impact sur le transport et le dépôt de matière à l'interface entre l'eau douce et l'eau de mer. Il combine des mesures de terrain au niveau de la zone de mélange du grand Rhône, des expériences de laboratoires et une étude numérique de l'agrégation.
En effet, afin de mener à bien cette étude, il a fallu développer de façon préliminaire différents outils. On a ainsi mis au point deux nouvelles méthodes de mesure expérimentale de la structure des agrégats qui échappent aux techniques existantes. Ces méthodes permettent, outre une meilleure connaissance du système, de développer et de valider un nouveau modèle de la cinétique de croissance des agrégats. Ce modèle numérique prend en compte la dimension fractale des agrégats ainsi que sa variabilité. Il est validé par confrontation à des données issues de la bibliographie et l'expériences.
Une étude de terrain dans l'estuaire du grand Rhône est menée dans des conditions hydrodynamiques contrastées (étiage, débit moyen et crue). Elle a permis d'obtenir, pour la première fois, une série de mesures de tailles de particules tout au long de la zone de mélange. Il est établi que les particules les plus grosses (supérieures à 5 microns) présentent une évolution contrôlée par la dilution, la sédimentation et
éventuellement la remise en suspension. Par contre, les particules plus petites (2 à 5 microns) montrent une augmentation de leur concentration le long de la zone de mélange. Dans les premiers temps du mélange, cette augmentation est liée à la fragmentation d'agrégats. Il est possible de montrer ensuite i) que l'agrégation des colloïdes ne peut expliquer cette augmentation que si ceux ci ne réagissent pas avec les fractions de tailles supérieures et présentent une réactivité très supérieure à la réactivité moyenne (alpha : 0.009) et ii) que la production primaire est un mécanisme probable pour expliquer cette augmentation.
8

Hozé, Nathanaël. "Modélisation et méthodes d'analyse de la diffusion et agrégation au niveau moléculaire pour l'organisation sous-cellulaire." Paris 6, 2013. http://www.theses.fr/2013PA066695.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions la diffusion et l'agrégation dans le contexte de la biologie cellulaire. Notre objectif est d'obtenir des lois physiques de plusieurs processus tels que l'assemblage des particules ou des lois de la diffusion dans des microdomaines, afin de déterminer comment les processus sous-cellulaires sont construits à partir de l'organisation moléculaire élémentaire. Ce changement d'échelle peut être formulé et analysé à l'aide de plusieurs outils tels que les équations aux dérivées partielles, la physique statistique, les processus stochastiques et des simulations numériques. Nous présentons ici différentes méthodes et nous les appliquons à certaines questions en biophysique, en neurobiologie et en biologie cellulaire, en particulier au trafic de récepteurs sur la membrane cellulaire, l'organisation nucléaire et la dynamique de l'assemblage viral. Dans la première partie, pour obtenir une estimation du coefficient de diffusion effectif d'une particule brownienne se déplaçant entre des obstacles, nous calculons le temps moyen pour qu'une particule brownienne arrive à une petite ouverture définie comme la région de distance minimale entre deux disques de même rayon. La méthode repose sur la transformation conforme de Möbius appliquée à l'équation de Laplace. Ce résultat nous permet de développer des méthodes statistiques pour résoudre un problème d'ingénierie inverse qui consiste à retrouver les paramètres d'une équation stochastique à partir d'un grand nombre de trajectoires courtes. En appliquant cette méthode aux données de superrésolution du trafic des récepteurs, nous identifions un nouveau type d'organisation moléculaire, décrit par des puits de potentiel (partie déterministe de l'équation stochastique). Nous répondons ensuite à une autre question: comment reconstruire des surfaces à partir d'un large nombre de trajectoires stochastiques courtes? En utilisant la formule d'Ito, nous dérivons une nouvelle classe d'équations aux dérivées partielles non linéaires qui nous permettent de reconstruire la surface. Cette partie est illustrée par des exemples numériques. Dans la deuxième partie, nous nous concentrons sur un aspect de l'organisation nucléaire et notre objectif est de modéliser et d'analyser la dynamique des télomères (extrémités des chromosomes) dans le noyau cellulaire. Des résultats expérimentaux ont montré que les télomères de la levure s'organisent dynamiquement en un petit nombre de paquets par un mécanisme qui reste encore largement incompris. Nous utilisons une approche inspirée de la physique statistique pour étudier la dynamique des 32 télomères, que nous modélisons comme des particules browniennes indépendantes qui peuvent aussi former des agrégats. Nous estimons le nombre de paquets et le nombre des télomères par paquet en utilisant des formules exactes dérivées de notre modèle. Nous identifions les paramètres pertinents en comparant nos résultats avec les données expérimentales. En particulier, nous montrons qu'un seul paramètre, le ratio du taux d'association sur le taux de dissociation des télomères, permet d'expliquer la distribution des paquets de télomères dans différentes conditions. Enfin, nous développons un modèle empirique pour étudier l'agrégation de particules à un site de nucléation unique. La distribution des particules en petits paquets avant leur arrivée est la clé pour comprendre la cinétique de l'agrégation. Nous obtenons ces lois en utilisant d'abord un modèle déterministe, puis un processus de sauts stochastique, ce qui nous permet d'obtenir une expression explicite pour le temps moyen de formation du site de nucléation. Nous discutons certaines applications à la formation de la capside du VIH
In the present PhD thesis, we study diffusion and aggregation in the context of cellular biology. Our goal is to obtain physical laws of several processes such as particle assembly or laws of diffusion in microdomains, in order to determine how subcellular processes are constructed from elementary molecular organization. This change of scale can be formulated and analyzed using several tools such as partial differential equations, statistical physics, stochastic processes and numerical simulations. We present here several methods and we apply them to study questions in biophysics, neurobiology and cellular biology. Examples are receptors trafficking on cellular membrane, nuclear organization and the dynamics of viral assembly. In the first part, to obtain an estimation of the effective diffusion coefficient of a Brownian particle moving in between obstacles, we compute the mean time for a Brownian particle to arrive to a narrow opening defined as the region of minimal distance between two disks of identical radius. The method relies on M\"obius conformal transformation applied to the Laplace equation. Using this result, we develop statistical methods to solve a reverse engineering problem which consists in recovering parameters of a stochastic equation from a large number of short trajectories. Applying this method to superresolution data of receptor trafficking, we identify novel molecular organization, which are described as potential wells (deterministic part of the SDE). We next solve a different question: how is it possible to reconstruct surfaces from a large sample of short stochastic trajectories? By using Ito's formula, we derive a new class of nonlinear partial differential equations that allow us to reconstruct the surface. This section is illustrated with numerical examples. In the second part, we focus on an aspect of nuclear organization and our goal is to model and analyze telomere dynamics (ends of the chromosomes) in the cell nucleus. Early experimental findings reveal that yeast telomeres organize dynamically in a small numbers of clusters, yet this process remains poorly understood. Thus, we use a statistical physics approach to study the joint dynamics of the 32 telomeres, that we model as independent Brownian particles that can also form aggregates. We estimate the number of clusters and the number of telomeres per cluster using exact formula that we derive from our model. We identify the relevant parameters by comparing our results with experimental data. In particular, we show that a single parameter - the ratio of the association to the dissociation rate - is sufficient to account for telomere clustering in various conditions. Finally, we develop an empirical model to study particle aggregation to a single nucleation site. The distribution of particles in small clusters before arriving is a key ingredient to derive kinetic laws. We derive these laws using first a deterministic model and then a stochastic jump process, which allows us to obtain also an explicit expression for the mean time that the nucleation site is filled. We discuss some applications to HIV capsid formation
9

Coppin, David. "Agrégation de la convection dans un modèle de circulation générale : mécanismes physiques et rôle climatique." Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066057.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'agrégation de la convection dans le modèle de circulation générale LMDZ5A à l'équilibre radiatif-convectif (RCE). L'instabilité du RCE mise en évidence nous permet d'étudier les mécanismes d'initiation de l'agrégation et leur dépendance à la température de surface océanique (SST). A basse SST, l'agrégation résulte d'un couplage entre la circulation grande-échelle et les effets radiatifs des nuages bas. A haute SST, elle provient d'un couplage entre la circulation de grande-échelle et les flux turbulents à la surface. Le couplage de l'atmosphère avec une couche de mélange océanique rend l'initiation de l'agrégation moins dépendante de la SST et des mécanismes d'initiation, à l'exception des effets radiatifs des nuages hauts. L'impact de l'agrégation sur la sensibilité climatique et la température de surface est aussi analysé. En favorisant la formation de zones ciel clair sèches, l'agrégation refroidit fortement le système climatique. Toutefois, cet effet est limité par l'effet des changements de gradients de SST et de fraction de nuages bas qui tendent au contraire à faire augmenter la sensibilité climatique. Aux plus courtes échelles temporelles, en revanche, le couplage entre océan et agrégation de la convection est à l'origine d'une boucle de rétroaction stabilisatrice qui contrôle l'agrégation et renverse complètement son effet. Ainsi, l'effet de l'agrégation sur la sensibilité climatique est assez faible par rapport à ce que laissent penser les simulations où le couplage océan-atmosphère est absent. Ces résultats montrent l'importance de considérer le couplage océan-atmosphère dans l'étude du rôle de l'agrégation dans le climat
This thesis focuses on the study of convective aggregation in LMDZ5A general circulation model, used in Radiative-Convective Equilibrium (RCE) configuration. The instability of the RCE allows us to look at the mechanisms controlling the initiation of convective aggregation and its dependence on sea surface temperatures (SST). At low SSTs, a coupling between the large-scale circulation and the radiative effects of low clouds is needed to trigger self-aggregation. At high SSTs, the coupling between the large-scale circulation and the surface fluxes controls this initiation. When the atmosphere is coupled to a slab ocean mixed layer, SST gradients facilitate the initiation of convective aggregation. Except for the high-cloud radiative effects, triggering mechanisms are less crucial. Convection also becomes less dependent on the SST.The impact of convective aggregation on the climate sensitivity and surface temperature is also analyzed. Convective aggregation is found to increase the area of dry clear-sky zones. Thus, it tends to cool the system very efficiently. However, the negative feedback associated with an increase in aggregation is generally balanced by offsetting changes in SST gradients and low clouds that tend to increase the climate sensitivity. In contrast, at shorter timescales, the coupling between ocean and convective aggregation also controls the strength of convective aggregation and overturn its effect. Thus the impact of convective aggregation may not be as strong as what can be inferred from experiments with uniform SSTs.These results emphasize the importance of considering ocean-atmosphere coupling when studying the role of aggregation in climate
10

Bel, Liliane. "Sur la réduction des modèles linéaires : analyse de données en automatique." Paris 11, 1985. http://www.theses.fr/1985PA112306.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions ici deux méthodes de réduction dans l’espace d’état : l’agrégation et la troncature dans la base d’équilibre. Dans le cas de l’agrégation on propose une nouvelle méthode de sélection des valeurs propres qui est à la fois géométrique et séquentielle. Des problèmes de robustesse sont soulevés et résolus dans quelques cas particuliers. La base d’équilibre est abordée par le biais des degrés de commandabilité et d’observabilité. La notion de degré de perturbabilité est introduite. On étudie ensuite l’application de ces deux méthodes à la détermination d’une commande d’ordre réduit. Enfin les deux méthodes sont appliquées au système représentant le lanceur Ariane en vol
Two state space model reduction methods are studied: aggregation method and the balanced state space representation method. In the case of aggregation a new method of selecting eigenvalues is proposed, which is both geometrical and sequential. Problems of robustness of aggregation are evoked and resolved in some particular cases. The balanced state space representation is approached by means of contralibility and observability degrees. The notion of perturbability degree is introduced. Then we study the application of those two methods to reduced order compensator design. The two methods are finally applied to the system representing the launch booster Ariane flying

Книги з теми "Agrégation de modèles":

1

Boussard, Jean-Marc. La programmation linéaire dans les modèles de production. Paris: Masson, 1988.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Agrégation de modèles":

1

Chafaï, Djalil, and Florent Malrieu. "Agrégation limitée par diffusion interne." In Recueil de Modèles Aléatoires, 83–91. Berlin, Heidelberg: Springer Berlin Heidelberg, 2016. http://dx.doi.org/10.1007/978-3-662-49768-5_6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії