Academic literature on the topic 'Estimation sous contraintes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Estimation sous contraintes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Estimation sous contraintes"

1

Andrieux, P., M. Voltz, and A. Durbec. "Fonctionnement hydrologique d'un interfluve sédimentaire de la plaine côtière ancienne de Guyane Française." Revue des sciences de l'eau 9, no. 1 (April 12, 2005): 51–74. http://dx.doi.org/10.7202/705242ar.

Full text
Abstract:
Le fonctionnement hydrologique de la plaine côtière ancienne de Guyane française constitue une des contraintes majeures à sa mise en valeur agricole, du fait de l'existence de périodes d'excès d'eau prolongées. L'objectif de cet article est d'analyser, sur un interfluve caractéristique de la plaine côtière ancienne, la forme et la dynamique de la nappe et ses sources d'alimentation en relation avec la variabilité des propriétés physiques des sols. Sur le plan expérimental, le travail est conduit à partir d'un suivi hydrologique in situ des fluctuations de la nappe observées sur 21 stations et d'une caractérisation de la variabilité spatiale de la conductivité hydraulique des sols par la méthode du trou de tarière à charge variable. Sur le plan de la modélisation, l'identification de la répartition spatiale de la recharge sur l'interfluve est déterminée par une modélisation inverse. Les suivis montrent d'une part la rapidité de réponse de la nappe aux pluies et d'autre part des temps de présence de la nappe en surface variables selon les sols. La modélisation conforte l'hypothèse d'isolement hydraulique de l'interfluve. La dynamique de la nappe est directement reliée aux entrées pluviométriques et dans une moindre mesure aux sols. La variabilité spatiale de la recharge est par ailleurs sous la dépendance de la topographie et de l'hétérogénéité spatiale de la conductivité hydraulique. Enfin, une estimation du ruissellement de surface souligne son importance sur l'interfluve. Les résultats obtenus montrent que l'engorgement des sols de la plaine côtière est sous la dépendance directe des processus hydrologiques observés à l'échelle de chaque interfluve. La prédiction des zones à excès d'eau marqué et des zones où la recharge est homogène peut être envisagée à partir de la connaissance de la topographie et de la distribution des sols. Sur le plan agronomique et pour les sols à forte contrainte hydrique, la mise en place de systèmes de drainage permettant leur mise en valeur agricole est à considérer.
APA, Harvard, Vancouver, ISO, and other styles
2

Massiéra, Michel, Bernard Boncompain, and Joseph Merheb-Harb. "Interprétation des mesures inclinométriques durant la construction des remblais zonés des ouvrages de retenue du Complexe La Grande, phase I." Canadian Geotechnical Journal 36, no. 3 (October 25, 1999): 533–43. http://dx.doi.org/10.1139/t99-016.

Full text
Abstract:
Une simulation du comportement de sept sections instrumentées au droit de cinq grands ouvrages de retenue du Complexe La Grande à la Baie James a été effectuée par la méthode des éléments finis. Ces sections ont été instrumentées à l'aide d'inclinomètres placés en général dans le noyau de moraine (vertical ou légèrement incliné). Ce noyau est protégé par des filtres en sable et gravier de plus faible compressibilité et par des épaulements réalisés en sable et gravier ou en enrochement. Les simulations ont été effectuées en utilisant le programme FEADAM 84. Elles présentent un intérêt, car les matériaux utilisés dans les cinq ouvrages de retenue sont très similaires, mais leur géométrie et leur zonage varient d'un ouvrage à l'autre. Cette étude permet de valider les paramètres utilisés pour les matériaux à granulométrie grossière et justifie les méthodes de choix de paramètres. De plus, elle permet de calculer les contraintes qui existent dans le noyau à la fin de la construction. Ces résultats indiquent que la comparaison de la charge hydraulique avec la contrainte principale mineure calculée, à la fin de la construction, dans l'axe du noyau ne permet pas de faire une estimation correcte du potentiel de claquage hydraulique. Mots clés : barrage en remblai, contraintes, déformations, effet de voûte, sols à granulométrie grossière, modèle hyperbolique, modules, noyau, paramètres, oedomètre.
APA, Harvard, Vancouver, ISO, and other styles
3

Kuepie, Mathias, and Nicaise Misangumukini. "Environnements économique et éducatif des ménages et difficultés scolaires des enfants au Mali." Articles 88, no. 4 (March 17, 2014): 403–28. http://dx.doi.org/10.7202/1023796ar.

Full text
Abstract:
L’objectif de cette étude est de mesurer l’importance de l’environnement familial des élèves (sous sa double dimension économique et éducative) sur le risque d’échec scolaire au Mali. Nous mobilisons les données de l’enquête ELIM-2006 qui présentent l’avantage de disposer de plusieurs indicateurs du niveau de vie et du capital éducatif des ménages que nous introduisons simultanément dans les estimations. Les résultats indiquent que les contraintes de ressources permanentes pèsent plus sur la scolarité des filles que des garçons. De même la réussite scolaire des filles est sensible au capital éducatif des adultes secondaires du ménage, ce qui n’est nullement le cas chez les garçons.
APA, Harvard, Vancouver, ISO, and other styles
4

AGABRIEL, J. "Avant-propos." INRAE Productions Animales 20, no. 2 (June 7, 2007): 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Full text
Abstract:
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques. Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement. La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage. Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA. Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations. L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats. Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
APA, Harvard, Vancouver, ISO, and other styles
5

Laïdi, Maamar, and Salah Hanini. "Approche neuronale pour l’estimation des transferts thermiques dans un fluide frigoporteur diphasique." Journal of Renewable Energies 15, no. 3 (October 23, 2023): 513–20. http://dx.doi.org/10.54966/jreen.v15i3.340.

Full text
Abstract:
La propriété associative des réseaux neurologiques artificiels et de leur capacité inhérente d’apprendre et identifier des rapports fortement non linéaires et complexes, les trouve idéalement convenus à une étendue des applications large dans le domaine du froid direct et indirect. Cet article traite les applications potentielles des réseaux neurones artificiels dans la particularité des problèmes thermiques soulevés par l’utilisation des fluides frigoporteurs diphasiques, tels que les coulis de glace (mélange de solutions binaires aqueuses et de cristaux de glace) dans les installations de distribution du froid. L’utilisation de ce type d’installation permet de diminuer, les quantités des fluides frigorigènes traditionnels, ainsi que les problèmes qu’ils engendrent, de réduire les volumes de stockage et les consommations d’électricité. La stratégie d’obtention du RN s'articule sur l'élaboration d'un programme sur MATLAB, comportant plusieurs boucles où on fait varier les algorithmes d’apprentissages, les fonctions d’activations, le nombre de couches cachées et le nombre de neurones dans chaque couche, afin de minimiser la fonction du coût sous contrainte d’une erreur relative fixée. Le modèle neuronal conçu a permis d’une part de reproduire avec une très bonne précision les données expérimentales tirées directement de littérature et d’autre part une estimation meilleure et plus précise des valeurs calculées par rapport aux modèles classiques (basé sur la formulation générale de la méthode enthalpique) des transferts thermiques dans le cas des solutions binaires dispersées sous forme d’émulsions ou de mini-émulsions subissant un changement de phase tirées directement de littérature.
APA, Harvard, Vancouver, ISO, and other styles
6

Stavropoulou, Eleni, Christophe Dano, Marc Boulon, Matthieu Briffaut, Ankit Sharma, and Alain Puech. "Résistance au cisaillement des interfaces roche / coulis représentatives de pieux offshore." Revue Française de Géotechnique, no. 158 (2019): 6. http://dx.doi.org/10.1051/geotech/2019012.

Full text
Abstract:
Dans le cadre des projets éoliens offshore, la conception optimisée des fondations de type monopieux forés dans des massifs rocheux carbonatés demande une estimation réaliste de la résistance au cisaillement mobilisable. Dans cette optique, une campagne d’essais de cisaillement d’interface roche / coulis est conduite sur la machine BCR3D qui permet, en particulier, d’appliquer une condition de rigidité imposée sur la normale à l’interface, condition jugée représentative de ce qui se passe au droit du pieu. On présente dans une première partie le dispositif expérimental, la préparation des éprouvettes d’essai et le choix des paramètres expérimentaux. Puis, au travers de différents résultats expérimentaux, on montre l’importance de la rigidité normale dans le développement de la résistance au cisaillement. Dans un second temps, on met en évidence que la rugosité, son évolution sous chargement et le contraste de propriétés mécaniques entre une roche (calcaire tendre ou calcarénite) et le coulis conditionnent le frottement mobilisable. L’élément commun à toutes les observations est la dilatation empêchée de l’interface et l’évolution associée de la contrainte normale à l’interface.
APA, Harvard, Vancouver, ISO, and other styles
7

BESNIER, Jean-Baptiste, Frédéric CHERQUI, Gilles CHUZEVILLE, and Aurélie LAPLANCHE. "Amélioration de la connaissance patrimoniale des réseaux d’assainissement de la métropole de Lyon." TSM 12 2023, TSM 12 2023 (December 20, 2023): 169–77. http://dx.doi.org/10.36904/tsm/202312169.

Full text
Abstract:
La métropole de Lyon s’est fixé pour objectif de reconstituer l’ensemble des dates de pose et des matériaux des conduites d’assainissement de son patrimoine. Cette communication présente les résultats de plusieurs années de travail soutenues par l’agence de l’eau Rhône Méditerranée Corse. Pour la reconstitution, deux axes de recherches sont privilégiés, ils sont inspirés des résultats du projet de recherche Hireau. Le premier axe porte sur l’implémentation de méthodes statistiques (apprentissage machine) pour reconstituer les informations manquantes à partir de données connues sur le patrimoine. L’approche a été adaptée au jeu de données lyonnais et fournit des estimations des dates de pose et des matériaux des réseaux d’assainissement. Un travail d’optimisation a ensuite permis d’améliorer la prédiction grâce à une augmentation de la précision et du rappel (proportion d’éléments correctement retournés parmi ceux qui existent) pour le matériau, et une réduction de la plage d’estimation pour la date de pose. Le deuxième axe porte sur l’utilisation de connaissances provenant de sources multiples. L’exploitation des données supplémentaires, comme les rapports d’inspections télévisées, permet d’obtenir directement le matériau de la conduite. La création de scripts de propagation d’information sous contrainte par parcours de graphes a également permis de renseigner des années de poses manquantes. Nous proposons dans cette communication de rendre compte des démarches mises en œuvre, et des résultats obtenus. L’objectif étant d’inciter d’autres collectivités à obtenir ces informations essentielles pour la gestion de leur patrimoine.
APA, Harvard, Vancouver, ISO, and other styles
8

Saïdi, Slim, Laurent Gazull, Abigaïl Fallot, Perrine Burnod, and Jean-François Trébuchon. "Cartographie de la disponibilité ds terres à l'échelle mondiale pour les plantations de bois énergie." BOIS & FORETS DES TROPIQUES 309, no. 309 (September 1, 2011): 77. http://dx.doi.org/10.19182/bft2011.309.a20468.

Full text
Abstract:
Une cartographie du potentiel de plantations arborées pour un niveau de rendement de biomasse ligneuse est présentée selon une approche biophysique. Trois genres botaniques ont été retenus comme aptes pour la production de boisénergie : Acacia, Eucalyptus et Pinus. L'intérêt des résultats réside dans l'utilisation de données géoréférencées, à 1 km de résolution, de précipitations, de températures et de types de sol. En accord avec ces paramètres ayant un impact significatif sur la distribution des espèces, des enveloppes bioclimatiques ont été générées à l'aide d'un Système d'information géographique (Sig). Le résultat est une combinaison de la moyenne des températures maximales du mois le plus chaud, de la moyenne des températures minimales du mois le plus froid et de la moyenne des précipitations annuelles. Ces critères sont retenus en considérant les contraintes édaphiques pouvant atténuer la productivité de biomasse. À l'échelle mondiale, pour les espèces retenues, les zones de plantations potentielles sont de l'ordre de 253 millions d'hectares (Mha) pour les espèces du genre Acacia, de 441 Mha pour les espèces du genre Eucalyptus et de 560 Mha pour les espèces du genre Pinus. Des cartes à l'échelle mondiale sont fournies pour des productions de 6 à 9 tonnes de matière sèche par hectare et par an. Le total des surfaces disponibles pour la plantation des espèces des trois genres considérés est de l'ordre de 600 Mha (6 millions de km²). La limite des bases de données affecte la validité de ces résultats qui nécessitent forcément des études complémentaires afin d'affiner ces estimations tout en introduisant la notion d'usage des sols à celle des catégories d'occupation des terres. (Résumé d'auteur)
APA, Harvard, Vancouver, ISO, and other styles
9

Gallego, Juan Miguel. "Demanda por seguro de salud y uso de servicios médicos en Colombia: diferencias entre trabajadores dependientes e independientes." Lecturas de Economía, no. 68 (November 11, 2008): 95–120. http://dx.doi.org/10.17533/udea.le.n68a266.

Full text
Abstract:
El artículo analiza los incentivos en aseguramiento y uso de servicios de los trabajadores, dependientes e independientes, cuando dichos agentes son heterogéneos en su estado de salud. Metodológicamente, los agentes eligen de manera secuencial el nivel de aseguramiento y uso de servicios que maximicen su utilidad intertemporal bajo incertidumbre sobre su estado de salud. Las estimaciones probit bivariadas muestran una relación positiva entre aseguramiento y estado de salud (selección positiva de riesgos), y aseguramiento e incidencia de enfermedad crónica (selección negativa de riesgos) para el grupo de trabajadores independientes. Para el uso de servicios de salud, dado que es una demanda inducida, el seguro de salud aumenta la probabilidad de uso de consulta externa. Palabras clave: capital salud, demanda de servicios de salud, selección de riesgo. Clasificación JEL: I1, I11, I12. Abstract: This paper analyzes the effect of individual health status on the probability of having health insurance and using health services. From the Colombian Living Standard Survey (1997, 2003), we found that the probability of having health insurance if you are self-employed increases either with the self report of a good health status (cream skimming) or the incidence of a chronic illness (self-selection). However, we do not observe those patterns on the group of self-employed workers. Finally, we found, as the research in the field suggests, that the use of health services increases with the health insurance status. Keywords: capital health, demand of medical care, risk selection. JEL Classification: I1, I11, I12. Résumé: L'article analyse les motivations auxquelles sont soumises les travailleurs dépendants et les travailleurs indépendants concernant l'adhésion à une assurance maladie et l'utilisation des services médicaux lorsqu'ils sont hétérogènes par rapport à leur état de santé. Les agents choisissent de manière séquentielle le niveau d'assurance maladie et l'utilisation des services médicaux qui maximisent leur utilité intertemporelle sous la contrainte d'incertitude sur leur état de santé. Les estimations probit bivariées montrent une relation positive entre l'adhésion à une assurance maladie et l'état de santé (sélection positive des risques), et l'adhésion à une assurance maladie et l'effet entraîné par une maladie chronique (sélection négative des risques) par le groupe des travailleurs indépendants. Maintenant, concernant l'utilisation des services médicaux, on montre que l'adhésion à une assurance maladie augmente la probabilité d'utilisation de la consultation externe puisqu'il s'agit d'une demande induite. Mots clef: capital santé, demande des services de santé, sélection des risques. Classification JEL: I1, I11, I12.
APA, Harvard, Vancouver, ISO, and other styles
10

Cheynet, Yann, Donato Gallitelli, and Grégoire Trespeuch. "Application des Courants de Foucault pour une estimation des contraintes résiduelles sur du matériel ferroviaire." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28492.

Full text
Abstract:
Un ressort à lames de suspension primaire s’est rompu en service sur un matériel roulant ferroviaire. L’expertise a mis en évidence des défauts de surface, à l’origine de de la fissuration en fatigue mise en cause. De plus, le niveau de contraintes résiduelles constaté était faible pour le grenaillage de précontrainte spécifié. Pour éviter une nouvelle défaillance, sans avoir à déposer immédiatement l’ensemble des ressorts, au risque de désorganiser la maintenance normale et de ne plus garantir l’ensemble des circulations, des examens non destructifs ont été réalisés. Ces contrôles ont porté sur tous les ressorts neufs du volant d’échange, ainsi que ceux montés sur les engins en service. Deux grandes étapes ont structuré cette étude. La première consistait en la recherche de défauts de fabrication sur les ressorts neufs ou de fissures sur les ressorts en service. La seconde étape était destinée à contrôler la qualité du grenaillage. Parmi les différentes méthodes existantes, très peu sont totalement non destructives et encore moins applicables sur le terrain. La diffraction de rayons X avait été proposée initialement mais l’accessibilité sous engin était trop limitée. Aussi, une méthode innovante développée par la société SONATS EUROPE TECHNOLOGIES, basée sur les courants de Foucault, a été proposée. Après une étude de faisabilité puis des contrôles en laboratoire sur les ressorts neufs issus du stock, une campagne d’essai a été menée sur le terrain directement sous engins. Ces analyses ont permis de mettre en évidence les ressorts dont le niveau de contrainte résiduelle était le plus critique, selon des critères définis en laboratoire. Il a ainsi été possible de prioriser leur dépose, sans nuire à l’organisation de la maintenance, tout en poursuivant le service ferroviaire normal…
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Estimation sous contraintes"

1

LANGLAIS, VALERIE. "Estimation sous contraintes d'inegalites." Paris, ENMP, 1990. http://www.theses.fr/1990ENMP0260.

Full text
Abstract:
Parfois, en plus des donnees exactes ou la valeur de la variable est connue, on dispose d'une information supplementaire: les contraintes; seul un encadrement de la valeur de la variable est connue. Il est alors interessant de construire un estimateur qui prenne en compte l'ensemble de l'information. On propose trois methodes faisant appel a des hypotheses differentes et fournissant des reponses differentes: 1) la minimisation sous contraintes d'une forme quadratique aboutit a des contraintes actives (calees a l'une de leurs bornes) et des contraintes inactives (strictement comprises dans l'intervalle). Elle s'applique dans le cas stationnaire et non-stationnaire et n'utilise que partiellement l'information contenue dans les contraintes; 2) l'esperance conditionnelle fournit un estimateur strictement compris dans les intervalles des contraintes. Son application est limitee dans la pratique au cas stationnaire. De plus la precision numerique devient mediocre lorsque le nombre de contraintes est important; 3) la methode incrementale, applicable en stationnaire et non-stationnaire, aboutit a un estimateur strictement compris entre les bornes des contraintes. Elle peut etre utilisee soit en estimation, soit en simulation. La premiere methode ne permet pas d'acceder a une variance d'estimation. On s'attachera a en fournir un substitut. Pour la troisieme methode, la variance d'estimation existe mais presente des difficultes quant a son calcul. Une approximation de cette quantite est donnee. Toutes ces methodes font appel a un modele structural et necessitent quelques outils simples d'analyse structurale en presence de contraintes qui permettent de valider ou non les hypotheses faites sur l'analyse structurale des donnees exactes. Enfin les trois exemples suivants seront detailles: 1) un probleme de topographie dans le cas stationnaire; 2) l'estimation du toit d'un dome de reservoir (donnees fournies par gaz de france); 3
APA, Harvard, Vancouver, ISO, and other styles
2

Cabral, Farias Rodrigo. "Estimation sous contraintes de communication : algorithmes et performances asymptotiques." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT024/document.

Full text
Abstract:
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation
With recent advances in sensing and communication technology, sensor networks have emerged as a new field in signal processing. One of the applications of his new field is remote estimation, where the sensors gather information and send it to some distant point where estimation is carried out. For overcoming the new design challenges brought by this approach (constrained energy, bandwidth and complexity), quantization of the measurements can be considered. Based on this context, we study the problem of estimation based on quantized measurements. We focus mainly on the scalar location parameter estimation problem, the parameter is considered to be either constant or varying according to a slow Wiener process model. We present estimation algorithms to solve this problem and, based on performance analysis, we show the importance of quantizer range adaptiveness for obtaining optimal performance. We propose a low complexity adaptive scheme that jointly estimates the parameter and updates the quantizer thresholds, achieving in this way asymptotically optimal performance. With only 4 or 5 bits of resolution, the asymptotically optimal performance for uniform quantization is shown to be very close to the continuous measurement estimation performance. Finally, we propose a high resolution approach to obtain an approximation of the optimal nonuniform quantization thresholds for parameter estimation and also to obtain an analytical approximation of the estimation performance based on quantized measurements
APA, Harvard, Vancouver, ISO, and other styles
3

Cabral, farias Rodrigo. "Estimation sous contraintes de communication : algorithmes et performances asymptotiques." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00877073.

Full text
Abstract:
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation.
APA, Harvard, Vancouver, ISO, and other styles
4

Ciuca, Marian. "Estimation non-paramétrique sous contraintes. Applications en finance stochastique." Aix-Marseille 1, 2003. http://www.theses.fr/2003AIX11018.

Full text
Abstract:
Les mathématiques financières peuvent requerir, par rapport à la formule de Black-Scholes, l'estimation non-paramétrique uni-latérale de la fonction de volatilité: l'estimateur doit être toujours plus grand ou égal à la fonction estimée. Dans la première partie nous construisons des estimateurs par ondelettes, linéaires et non-linéaires, du coefficient de diffusion d'un processus de diffusion, et calculons leur vitesses de convergences dans un contexte minimax, et respectivement, adaptatif, lorsque la fonction estimée appartient à des classes de régularité de Besov, en utilisant la norme uniforme comme mesure de la qualité d'un estimateur; nous construisons ensuite un estimateur asymptotiquement uni-latéral du coefficient de diffusion et calculons sa vitesse de convergence minimax. Dans la deuxième partie nous étudions le problème d'estimation uni-latéral dans le modèle de bruit blanc gaussian, et mettons en évidence la vitesse de convergence minimax de ce problème d'estimation non-paramétrique sous contraintes, démontrant des résultats de borne infériuere et supérieure. Dans la troisième partie, nous prouvons que nos estimateurs de la volatilité, engendrent des stratégies Black-Scholes asymptotiquement répliquantes, super-répliquantes et sub-répliquantes. Le dernière partie présente nos estimateurs de point de vue appliqué, à l'aide de simulations numériques
In financial mathematics, when using the celebrated Black-Scholes formula one can be asked to nonparametrically estimate the volatility function in a one-side manner: the estimator has to be always grater than, or equal to, the estimated function. In the first part, working over Besov smoothenss classes, we construct wavelet linear and non-linear estimators of the diffusion coefficient of a diffusion process, using the sup-norm as a quality criterion for an estimator, and compute their convergence rates, in a minimax, and respectively adaptive, context; then we construct an asymptotically one-sided diffusion coefficient estimator and compute its minimax convergence rate. In the second part we study the one-side estimation problem in the Gaussian white noise model, and exhibit the minimax convergence rate for this constrained nonparametric estimation problem, proving lower and upper bound results. In the third part, we prove that our volatility estimators yield Black-Scholes asymptotically replicating, super-replicating and sub-replicating strategies. The last part presents our estimators from an applied point of view, by means of numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
5

Ouassou, Idir. "Estimation sous contraintes pour des lois à symétrie sphérique." Rouen, 1999. http://www.theses.fr/1999ROUES031.

Full text
Abstract:
Cette thèse a pour cadre la famille des lois à symétrie sphérique dont le paramètre de position est inconnu mais est soumis à certaines contraintes. Le cas particulier où la loi est gaussienne est développé séparément. Dans le premier chapitre, nous étudions le problème de l'estimation de la moyenne d'une telle loi quand sa norme est égale à une constante positive connue. Nous montrons que, sous coût quadratique, il existe un estimateur optimal de la moyenne dans la classe des estimateurs de type de James-Stein paramétrés par une constante positive. Ensuite nous donnons une classe plus générale d'estimateurs, dits robustes. Nous montrons que la constante optimale qui minimise le risque dans cette classe est bornée inférieurement par une constante indépendante de la contrainte et valide pour l'ensemble des estimateurs de cette classe. Dans le second chapitre, nous abordons le même problème avec l'hypothèse que les différentes contraintes considérées sont basées sur la positivité de toutes les composantes ou de quelques composantes de la moyenne. Le troisième chapitre fournit une généralisation de ce problème d'estimation de la moyenne quand celle-ci est restreinte à un cône polyédral. Enfin, dans le dernier chapitre de cette thèse, nous étendons la problématique d'estimation sous contraintes à l'estimation du coût quadratique d'un estimateur de la moyenne. Les contraintes considérées sont celles envisagées dans les deux premiers chapitres : la norme de la moyenne est connue ou certaines de ses composantes sont supposées positives.
APA, Harvard, Vancouver, ISO, and other styles
6

Younes, Hassan. "Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /." Montréal : Université du Québec à Montréal, 2005. http://accesbib.uqam.ca/cgi-bin/bduqam/transit.pl?&noMan=24065971.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Cousin, Jean-Gabriel. "Methodologies de conception de coeurs de processeurs specifiques (asip) : mise en oeuvre sous contraintes, estimation de la consommation." Rennes 1, 1999. http://www.theses.fr/1999REN10085.

Full text
Abstract:
L'evolution rapide des applications de telecommunications, du multimedia et de l'electronique grand public offre la possibilite de realiser un systeme complet sur une meme puce. L'integration a un niveau d'abstraction eleve de ces applications sur des curs de processeurs flexibles, permet de reduire le temps de conception et le cout du produit. Nous etudions ici l'asip, une solution materielle heterogene, specifique, performante et flexible, de surface et de consommation reduites. Nous definissons des methodologies de conception de curs d'asip pour un environnement de synthese de haut niveau. Ces methodologies s'appuient sur des algorithmes d'ordonnancement par liste et sont nanties d'estimateurs de consommation assistant l'integration d'algorithmes en vue d'une optimisation. Nous ciblons et experimentons sur les applications de traitement du signal et d'images orientees flot de donnees, contraintes en temps ou restreintes en surface. Une premiere methodologie synthetise continument les algorithmes contraints en temps choisis pour caracteriser l'application consideree, et concoit le cur d'asip correspondant dont on deduit le jeu d'instructions ; la seconde, similaire a la premiere, permet de surcroit d'agir sur l'algorithmie ou sur l'architecture en cours de conception, en reaction aux informations delivrees par nos estimateurs. La troisieme nous confere la possibilite de concevoir une architecture vlsi a ressources contraintes. Par cette technique et par la flexibilite de l'architecture, nous prospectons sur l'implementation d'algorithmes par le biais de notre environnement de synthese materielle. Notre presentation des techniques avancees d'estimation et d'optimisation de la consommation, nous permet de degager les modeles caracterisant les composants de nos asip. Nous presentons trois estimateurs de la consommation : le premier agit lors de l'execution des modules usuels de la synthese, le second estime apres synthese complete de l'algorithme cible et le troisieme s'appuie sur le jeu d'instructions du cur d'asip synthetise. Pour assurer le suivi de nos recherches, nous effectuons une analyse critique, tant sur le developpement de nos outils elabores et sur la conduite de nos methodologies, que sur les resultats de nos experimentations
APA, Harvard, Vancouver, ISO, and other styles
8

Maatouk, Hassan. "Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0791/document.

Full text
Abstract:
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée
This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities
APA, Harvard, Vancouver, ISO, and other styles
9

Lobjois, Lionel. "Problèmes d'optimisation combinatoire sous contraintes : vers la conception automatique de méthodes de résolution adaptées à chaque instance." Toulouse, ENSAE, 1999. http://www.theses.fr/1999ESAE0025.

Full text
Abstract:
Nous étudions dans cette thèse deux voies pour résoudre plus efficacement les problèmes d'optimisation combinatoire exprimés dans le cadre génétique VCSP (Valued Constraint Satisfaction Problem), extension du cadre CSP (Constraint Satisfaction Problem) pour l'optimisation. La première voie concerne la recherche de nouvelles méthodes globalement plus performantes par la coopération entre méthodes complètes et méthodes incomplètes. Nous proposons en particulier une nouvelle méthode hybride dédiée à la résolution de VCSP en contexte interruptible et la comparons aux recherches locales standards. La seconde voie concerne la recherche d'outil d'aide à la décison permettant d'utiliser une méthode adaptée à chaque situation, c'est-à-dire adaptée à l'instance à résoudre et au temps imparti à la résolution de cette instance. Nous proposons tout d'abord une adaptation de la méthode proposée par Knuth en 1975 afin d'estimer le temps de résolution des méthodes complètes de type séparation et évaluation. Nous envisageons ensuite une série d'application potentielles pour cet estimateur. Nous proposons notamment la méthode SPP (algorithm Selection by Performance Prediction) capable de sélectionner, instance par instance, l'algorithme le plus performant parmi une base d'algorithmes complets. Nous terminons ce mémoire par quelques voies permettant d'étendre cette méthode à une construction automatique d'algorithmes complets "optimisés" pour chaque instance.
APA, Harvard, Vancouver, ISO, and other styles
10

Zebadúa, Augusto. "Traitement du signal dans le domaine compressé et quantification sur un bit : deux outils pour les contextes sous contraintes de communication." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT085/document.

Full text
Abstract:
La surveillance de phénomènes physiques à l’aide d’un réseau de capteurs (autonomes mais communicants) est fortement contrainte en consommation énergétique, principalement pour la transmission de données. Dans ce cadre, cette thèse propose des méthodes de traitement du signal permettant de réduire les communications sans compromettre la précision des calculs ultérieurs. La complexité de ces méthodes est réduite, de façon à ne consommer que peu d’énergie supplémentaire. Deux éléments servent à leur synthèse : la compression dès l’acquisition (Acquisition compressive) et la quantification grossière (sur 1 bit). D’abord, on étudie le corrélateur compressé, un estimateur qui permet d’évaluer les fonctions de corrélation, temps de retard et densités spectrales en exploitant directement des signaux compressés. Ses performances sont comparées au corrélateur usuel. Si le signal à traiter possède un support spectral étroit, l’estimateur proposé s’avère sensiblement meilleur que l’usuel. Ensuite, inspirés par les corrélateurs à forte quantification des années 50 et 60, deux nouveaux corrélateurs sont étudiés : le compressé sur 1 bit et le compressé hybride, qui peuvent également surpasser les performances de leurs contreparties non-compressées. Finalement, on montre la pertinence de ces méthodes pour les applications envisagées à travers l’exploitation de données réelles
Monitoring physical phenomena by using a network of sensors (autonomous but interconnected) is highly constrained in energy consumption, mainly for data transmission. In this context, this thesis proposes signal processing tools to reduce communications without compromising computational accuracy in subsequent calculations. The complexity of these methods is reduced, so as to consume only little additional energy. Our two building blocks are compression during signal acquisition (Compressive Sensing) and CoarseQuantization (1 bit). We first study the Compressed Correlator, an estimator which allows for evaluating correlation functions, time-delay, and spectral densities directly from compressed signals. Its performance is compared with the usual correlator. As we show, if the signal of interest has limited frequency content, the proposed estimator significantly outperforms theconventional correlator. Then, inspired by the coarse quantization correlators from the 50s and 60s, two new correlators are studied: The 1-bit Compressed and the Hybrid Compressed, which can also outperform their uncompressed counterparts. Finally, we show the applicability of these methods in the context of interest through the exploitation of real data
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Estimation sous contraintes"

1

Yana, Simon David. Les coûts liés aux besoins particuliers des personnes ayant des incapacités: Contraintes et limites d'une estimation du sous-financement à partir des données d'enquêtes et des informations administratives existantes. Drummondville, Québec: Office des personnes handicapées du Québec, [2008], 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography