Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Application régulière de la loi.

Dissertationen zum Thema „Application régulière de la loi“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Application régulière de la loi" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Liu, Shuyan. „Lois stables et processus ponctuels : liens et estimation des paramètres“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00463817.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est d'étendre une méthode d'estimation des paramètres d'une loi stable dans Rd aux lois à queue régulière dans un cône arbitraire. La méthode d'échantillonnage par paquets est modifiée afin d'optimiser la vitesse de convergence des estimateurs. Un nouvel estimateur de la masse totale de mesure spectrale est proposé. Des résultats sur les statistiques d'ordre des lois à queue régulière dans un cône et la loi des grands nombres pour le schéma triangulaire sont établis. La consistance et la normalité asymptotique des estimateurs sont démontrées. La performance des estimateurs est étudiée par simulation. On compare ces estimateurs avec quelques estimateurs connus. Les tableaux de performance sont fournis. La méthode de noyau est utilisée pour estimer la densité d'une mesure spectrale absolument continue d'une loi à queue régulière. On prouve la consistance de l'estimateur dans notre cas particulier. Pour augmenter le nombre de points utilisés dans l'échantillon, on propose une méthode d'estimation utilisant les permutations aléatoires de l'échantillon. La variation régulière a la propriété d'être préservée par plusieurs opérations et transformations. On considère trois sortes de transformations. Des conditions suffisantes pour cette préservation sont proposées et quelques contre-exemples sont présentés. Les modèles de lois stables et de lois à queue lourde sont très utilisés dans plusieurs domaines d'application. On considère deux jeux de données réelles : les cours des 30 valeurs de l'indice DJIA et les perturbations planétaires des comètes du nuage de Oort. En appliquant la méthode d'estimation présentée on obtient des descriptions statistiques de ces données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Albert, Clément. „Estimation des limites d'extrapolation par les lois de valeurs extrêmes. Application à des données environnementales“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM079/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes
This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Noël, Pierre. „Le statut des procédures dans l'Église“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0007/NQ43099.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Jebrane, Aissam. „Modélisation du mouvement d'une foule via la théorie de la dynamique non régulière des solides“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1062.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne la modélisation du mouvement des piétons via l’approche non régulière du contact dynamique des solides rigides et déformables. Une reformulation de cette approche est proposée en accord avec le formalisme de M.Frémond et celui de J.J.Moreau. L’approche proposée est basée sur la notion de percussion qui est l’intégrale de la force de contact au cours de la durée de la collision. Contrairement aux modèles classiques d’éléments discrets, il est supposé que les percussions ne peuvent être exprimées qu’en fonction de la vitesse avant l’impact. Cette hypothèse est vérifiée pour des lois de comportement classiques de la collision. Les équations de mouvement sont ensuite reformulées en tenant compte de multiples collisions simultanées. L’existence et l’unicité de la solution du nouveau modèle sont discutées en fonction de la régularité des forces (densité de Lebesgue apparaissant au cours de l’évolution régulière du système) et la régularité des percussions (Dirac-densité décrivant la collision). A la lumière des principes de la thermodynamique, une condition sur la percussion interne assurant que la collision est thermodynamiquement admissible, est établi. L’application aux collisions de disques rigides et à l’écoulement dans un sablier en forme d'entonnoir est présentée. L’approche est étendue au mouvement de la foule, en effet ; la circulation des piétons à travers les goulets d’étranglement est étudiée. Une analyse de sensibilité est effectuée pour étudier l’effet des paramètres d’un modèle de mouvement de foule discret 2D sur la nature des collisions et des temps d’évacuation des piétons. Nous avons identifié les paramètres qui régissent une collision de type piéton-piéton et étudié leurs effets sur le temps d'évacuation. Puis une expérience d’évacuation d’une salle avec une sortie de goulot d’étranglement est introduite et sa configuration est utilisée pour les simulations numériques. La question de l’estimation des forces de contact et de la pression générée dans une foule en mouvement est abordée à la fois d’un point de vue discret (un piéton est assimilé à un disque rigide) et continue (la foule est considérée comme un solide déformable). Une comparaison entre le modèle microscopique du second ordre (modèle discret 2D) et l’approche continue est présentée. Les forces de contact sont rigoureusement définies en tenant compte des contacts multiples et simultanés et le non chevauchement entre piétons. Nous montrons que pour une foule dense les percussions (saut de la quantité de mouvement correspondant au contact instantané) deviennent des forces de contact. Pour l’approche continue, la pression est calculée en fonction des contraintes volumiques et surfaciques. Et tenant compte les interactions non locales entre les piétons. Afin de rendre l’approche plus efficace, nous avons modélisé chaque piéton par un solide déformable, le cas unidimensionnel est étudié, une comparaison avec le cas discret est présentée pour un exemple d’écrasement d’une chaîne de piétons dans un obstacle fixe. La solution analytique des équations de contact est développée ce qui permet une calibration de paramètres du modèle et une étude asymptotique des solutions. La théorie non-régulière de la dynamique de solides déformables permet de calculer la vitesse réelle de la foule en tant qu’un milieu continu en tenant compte des interactions avec l’environnement et de la vitesse souhaitée. Une représentation macroscopique donnée par un problème couplé d’équations hyperbolique et elliptique. Une équation hyperbolique décrivant l’évolution de la densité de la foule dont la vitesse est calculée une équation elliptique, celle de l’évolution d’un solide déformable. Un résultat d’existence et unicité est développé concernant l’existence et l’unicité de la solution du problème couplé et la stabilité par rapport à la condition initiale et les conditions aux limites
This work concerns the modeling of pedestrian movement inspired by the non-smooth dynamics approach for the rigid and deformable solids. Firstly, a reformulation of the non-smooth approaches of M.Frémond and J.J.Moreau for rigid body dynamics is developed. The proposed theory relies on the notion of percussion which is the integral of the contact force during the duration of the collision. Contrary to classical discrete element models, it is here assumed that percussions can be only expressed as a function of the velocity before the impact. This assumption is checked for the usual mechanical constitutive laws for collisions. Motion equations are then reformulated taking into account simultaneous collisions of solids. The existence and uniqueness of the solution of the proposed model are discussed according to the regularity of both the forces (Lebesgue-density occurring during the regular evolution of the system) and the percussions (Dirac-density describing the collision). A condition on the internal percussion assuring that the collision is thermodynamically admissible is established. An application to the collision of rigid disks and the flow in a funnel-shaped hourglass is presented. The approach is extended to crowd motion, indeed; the circulation of pedestrians through the bottlenecks is studied and deals with to optimize evacuation and improve the design of pedestrian facilities. A sensitivity analysis is performed to study the effect of the parameters of a 2D discrete crowd movement model on the nature of pedestrian’s collision and on evacuation times. The question of estimation of contact forces and the pressure generated in a moving crowd is approached both from a discrete and continues point of view. A comparison between the second-order microscopic model (2D discrete model) and the continues approaches is presented. Contact forces are rigorously defined taking into account multiple, simultaneous contact and the non-overlapping condition between pedestrians. We show that for a dense crowd the percussions (moment umjump corresponding to instantaneous contact) become contact forces. For continuous approach, the pressure is calculated according to volume and surface constraints. This approach makes it possible to retain an admissible right-velocity (after impact), including both the non local interactions (at a distance interactions) between non neighbor pedestrians and the choice of displacement strategy of each pedestrian. Finally, two applications are presented : a one-dimensional simulation of an aligned pedestrian chain crashing into an obstacle, and a two-dimensional simulation corresponding to the evacuation of a room. In order to make the approach more efficient, we modeled each pedestrian with a deformable solid, the unidimensional case is studied a comparison with the discreet case is presented that corresponding to a crash of a pedestrian chain in a fixed obstacle is treated. The analytical solution of contact equations is developed for both approaches. This allows to calibrate the model parameters and offers an asymptotic study of the solutions. The non-smooth theory of deformable solids makes it possible to calculate the current velocity of the crowd as a continuous medium taking into account the interactions with the environment and their desired velocity. a macroscopic representation is developed through Hyperbolic – Elliptic Equations. indded;the crowd is described by its density whose evolution is given by a non local balance law. the current velocity involved in the equation is given by the collision equation of a deformable solid with a rigid plane. Firstly, we prove the well posedness of balance laws with a non smooth ux and function source in bounded domains, the existence of a weak entropic solution, it’s uniqueness and stability with respect to the initial datum and of the boundary datum. an application to crowdmodeling is presented
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Seguin, Pascal. „Développement d'une technique d'optimisation paramétrique pour la synthèse de mouvements à dynamique régulière : application à la marche“. Poitiers, 2003. http://www.theses.fr/2003POIT2326.

Der volle Inhalt der Quelle
Annotation:
L'objectif est de réaliser l'optimisation dynamique de mouvements de systèmes à cinématique ouverte ou fermée. La méthode choisie est l'optimisation paramétrique. La technique utilisée consiste à approximer les paramètres du mouvement par des fonctions splines de classe C3 constituées de polynômes de degré 4 raccordés en des points de jonction équirépartis sur le temps. Les couples actionneurs, et les efforts de liaison associés aux conditions de fermetures, s'expriment ainsi, par l'intermédiaire des équations du mouvement, comme des fonctions du temps et des paramètres d'optimisation. Ces couples et efforts quadratiques intégrés sur le temps fournissent la fonction objectif à minimiser. Le problème d'optimisation dynamique est alors transformé en un problème d'optimisation paramétrique, résolu par des codes de calcul existants. Cette technique est appliquée à la synthèse de pas de marche sagittale. La seule donnée d'une vitesse de marche permet d'engendrer un pas optimal
This work is aimed at optimizing motions of constrained dynamics systems. A parametric optimisation method is developed. It consists in approximating joint motion coordinates using spline functions of class C3, made up of 4-order polynomials linked at uniformly distributed knots, in order to avoid jerks at connecting points. Joint actuating torques as well as interaction forces associated with closure constraints of closed kinematic chains, are expressed, through dynamics equations, as functions depending on both the time and the optimisation parameters. The objective function to be minimized is obtained by integrating quadratic torques and interaction forces along the motion time. The initial dynamic optimisation problem is then recast as a parametric optimisation problem, which is solved using existing computing codes. This technique is used to carry out optimal synthesis of sagittal gait. The walking velocity is the only data required for generating an optimal step
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Chrétien-Vincent, Myriam. „Application d'un programme d'activités vestibulo-proprioceptives avec des élèves présentant un trouble du spectre autistique intégrés en classe régulière“. Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25954.

Der volle Inhalt der Quelle
Annotation:
Les enfants avec un Trouble du Spectre de l’Autisme rencontrent de nombreux obstacles dans leur quotidien, entre autres, en lien avec le traitement des stimuli dans leur environnement. Comme ces enfants sont de plus en plus scolarisés dans les milieux réguliers, il apparait pertinent de se questionner sur les interventions qui peuvent favoriser leur participation scolaire. Une recension des écrits scientifiques a permis de ressortir les différentes approches et de déterminer les retombées de quelques modalités sensorielles étudiées depuis l’an 2000. Suite à cette analyse, l’efficacité d’un programme d’activités sensorimotrices nommé SPIFE (Stimulations Proprioceptives pour l’Intégration et le Fonctionnement de l’Élève) a été évaluée avec sept élèves avec un TSA intégrés dans une classe du premier cycle du primaire. Les résultats obtenus permettent de mettre en évidence des retombées positives du programme SPIFE, particulièrement pour favoriser l’éveil des élèves à participer aux tâches scolaires.
Children with Autism Spectrum Disorders (ASD) face many obstacles in their daily lives, including processing sensory stimulations in their environment. As children are more frequently included in typical school setting, interventions to increase their social participation must be found. A lot of sensory interventions are known by occupational therapists. A systematic review of original researches concerning the use of sensory modalities for children with ASD was conducted to evaluate their effectiveness and to define the different approaches. Only studies from the year 2000 were considered. Following this, efficacy of a sensorimotor program named SPIFE (Stimulations Proprioceptives pour l’Intégration et le Fonctionnement de l’Élève) was measured with seven children with ASD at the beginning of their elementary scholarship in regular groups. Results show some positive effects of the SPIFE, mostly to increase arousal of students in the classroom.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Wendling-Mansuy, Sylvie. „Loi de comportement d'une structure de tenségrité élémentaire : application à la mécanique cellulaire“. Paris 12, 1997. http://www.theses.fr/1997PA120111.

Der volle Inhalt der Quelle
Annotation:
Un modele de structures spatiales reticulees base sur le concept de tensegrite, est developpe dans le but de comprendre le comportement mecanique de cellules vivantes a partir de la connaissance des proprietes physiques des elements constitutifs du cytosquelette. Dans ce cadre, les relations contrainte-deformation d'une structure de tensegrite elementaire comportant 6 barres rectilignes quasi-rigides en equilibre avec 24 cables hyper-elastiques sont etudiees pour differentes conditions de chargements quasi-statiques et sur une large gamme de deformations (0 a 100%). Un modele mathematique permet d'extraire la solution linearisee d'un systeme d'equations traduisant (i) l'equilibre des forces aux nuds, (ii) la compatibilite entre deplacements nodaux et deformations des elements et (iii) la loi de comportement des dits elements. Un modele experimental a egalement ete developpe pour valider le modele mathematique. Une analyse dimensionnelle a permis d'identifier les parametres physiques caracteristiques du comportement mecanique des structures de tensegrite. Les resultats sont obtenus sur des structures de dimensions variees, pour differents etats d'autocontrainte et de rigidite des elements. Ils ont ete mis sous forme d'une relation adimensionnelle mettant en jeu la longueur normalisee l* et la tension de reference normalisee t* des elements elastiques. Cette relation qui decrit la rigidite de ces structures en fonction de la deformation globale, permet le passage des echelles macroscopique (des structures physiques) a microscopique (des cellules vivantes). Les resultats numeriques sont en accord avec les resultats biologiques issus de differentes methodes experimentales, notamment concernant l'ordre de grandeur de la rigidite de cellules endotheliales. Ils confirment l'interet du concept de tensegrite pour la comprehension des proprietes mecaniques de la cellule en relation avec le rearrangement des filaments constitutifs et leurs proprietes physiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Thomas, Carole. „Le bruit de la loi : comment les lois deviennent médiatiques“. Cachan, Ecole normale supérieure, 2008. http://www.theses.fr/2008DENS0049.

Der volle Inhalt der Quelle
Annotation:
A partir de l'analyse de la mise à l'agenda et des processus de communication de deux lois très médiatisées, cette thèse s'attache à montrer en quoi les gouvernants mobilisent les lois comme instruments de communication. Etudier la loi comme un instrument de gestion des problèmes publics en même temps que de communication politique est une façon d'articuler sociologie politique de l'action publique, sociologie des professions et sociologie des médias. Apparaît alors le double visage de la loi, instrument propre de gouvernement et instrument de publicité, qui la met au coeur des tensions inhérentes au fonctionnement des démocraties constitutionnelles pluralistes. Si le politique choisit de faire une loi, c'est d'abord parce que celle ci est le signe qu'il se saisit d'un problème public jusque là insoluble. C'est ensuite et surtout parce que la loi offre de multiples prises à la médiatisation. Elle rend donc l'action publique visible. Cependant les médias, n'étant pas seulement des canaux de transmission mais bien des acteurs à part entière dans le processus de communication de la loi, peuvent contraindre la formulation de celle ci, voire contrecarrer les processus de communication pensés comme stratégiques par les gouvernants, en s'opposant à la loi. La démonstration empirique repose sur l'analyse de corpus presse et l'analyse des discours d'acteurs impliqués dans les processus de communication de deux lois : la loi interdisant le port de signes religieux à l'école du 15 mars 2004 et la loi d'orientation et de programmation pour la Justice (LOPJ) réformant la justice des mineurs et instituant la justice de proximité promulguée le 9 septembre 2002
This thesis focuses on how the government uses the laws as tools of communication. The demonstration is based on the analysis of the agenda building and the media coverage of two highly mediatized laws. The purpose is to study the law as a government means for solving public problems and at the same time as a political communication tool. It's a way of articulating political sociology of the public action, sociology of professions and media studies. The double sided face of law, government and advertising tools, is thus shown with the tensions inherent to the functioning of the pluralistic constitutional democracies. If political actors choose the law as tool of government, it is first because this is the evidence they address an ill structured problem. Moreover it is especially because the law can represent government action in the media. However the media being not only channels of transmission but very independent actors in the process of communication of the law, can influence the wording of the law, even thwart the processes of communication thought as strategic by the government, by opposing the law. Thus the profesionnalization of communication does not empower politicians with the "control" communication. They are even less empowered as journalists deal with their own professional practises and constraints. This research is based on a media corpus analysis and interviews with journalists, communication professionals, politicians, legal professionals and trade union leaders involved in the communication process of the French law in 2004 on secularity and conspicuous religious symbols in school, as well as the law of orientation and programming for the Justice reforming the juvenile justice and establishing new proximity judges in 2002
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ziat, Hassane. „Convergence des suites adaptées multivoques : Application à la loi forte des grands nombres multivoque“. Montpellier 2, 1993. http://www.theses.fr/1993MON20162.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, on donne une nouvelle demonstration de la loi forte des grands nombres multivoque, a partir des techniques de convergence des martingales renversees. On etudie le lemme de fatou, et on etablit un theoreme de convergence dominee au sens de kuratowski relativement a la topologie faible, pour des multifonctions pettis-integrables
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Gaudron, Guillaume. „Convergence en loi d'EDS et d'EDS Rétrogrades : application à l'homogénéisation d'EDP linéaires ou semilinéaires“. Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11010.

Der volle Inhalt der Quelle
Annotation:
Certaines solutions d'edp paraboliques ou elliptiques, lineaires ou semilineaires, peuvent s'obtenir par l'intermediaire de processus stochastiques solutions d'eds. Le but de cette these est de combiner ces formules probabilistes avec des resultats de convergence en loi, pour etablir des theoremes limites pour certaines edp a coefficients aleatoires ou periodiques. La premiere partie de ce travail (chapitres 2 et 3) traite d'un exemple de convergence de diffusions soumises a un champ de vitesse turbulent aleatoire qui depend d'un petit parametre. En etablissant leur convergence en loi, et grace au lien classique entre les edp et les diffusions, nous retrouvons les lois d'echelles anomales mises en evidence par avellaneda et majda pour ce modele simple de turbulence et nous ameliorons les resultats concernant les edp associees. Ce qui est original c'est de profiter du fait que les diffusions sous-jacentes sont explicites pour d'une part etablir la convergence en loi sans utiliser une forme de theoreme central-limite et d'autre part identifier la limite. La deuxieme partie (chapitres 4 a 6) comporte l'etude de la convergence en loi d'edsr associees a des edp paraboliques ou elliptiques semi-lineaires. La encore, nous profitons du lien existant entre les edsr et certains types de solutions d'edp non lineaires pour obtenir des resultats d'homogeneisation pour ces edp. L'originalite de ce travail, outre le fait qu'il utilise la theorie recente des edsr, est d'essayer de savoir pour quel type de non-lineaire on peut obtenir des resultats interessants sans supposer de comportement a priori sur la forme de l'equation limite. L'approche est tres naturelle et la methode employee s'applique a des solutions d'edp a coefficients aussi bien aleatoires que periodiques. L'idee de ce travail est que l'on peut autoriser dans l'edp une fonction nonlineaire de la solution et de son gradient qui soit un polynome du second degre par rapport au gradient.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Husson, Jean-Marie. „Loi de comportement viscoélastique avec effet mémoire : application à la mécanosorption dans le bois“. Limoges, 2009. https://aurore.unilim.fr/theses/nxfile/default/eecfb8d7-fe33-4a3a-a441-a20e70f3f96a/blobholder:0/2009LIMO4043.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire présente une nouvelle loi de comportement traduisant le comportement mécanosorptif du bois. L'approche thermodynamique proposée, pour des sollicitations uniaxiales dans le domaine élastique, permet d'inclure l'effet mécanosorptif dans l'expression analytique de la déformation, en opérant un découplage de la contrainte en une partie mécanique et une partie mécanosorptive. La mémoire du matériau est alors définie comme la rigidité minimale connue sous charge. Un nouveau modèle rhéologique est développé. Son implantation dans un modèle de Kelvin Voigt permet sa généralisation à une sollicitation mécanique quelconque, dans le domaine viscoélastique. Une validation de notre modèle est entreprise par la simulation de différentes expérimentations de traction uniaxiale sur des éprouvettes de petites dimensions ainsi que sur un essai de flexion
This work deals with a thermodynamic approach in order to take into account realistic elastic behavior under moisture content variations. A decoupling of stress into a mechanical stress and a mechanosorptive stress induced by rigidity variations is proposed. In this context, a memory effect is then characterized by the introduction of the minimum of rigidity known between actual time and origin of mechanical stress. A new rheological model is developed and introduced in a Kelvin Voigt model. It allows us to generalize this analytical approach for uniaxial loading in viscoelastic domain. An experimental validation of our model is presented by simulating different uniaxial creep recovery tests on thin specimens and a creep bending test under moisture content variations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Safiyeh, Ghiass. „Les modalités d'application de la loi étrangère en droit international privé français“. Nice, 1993. http://www.theses.fr/1993NICE0009.

Der volle Inhalt der Quelle
Annotation:
La jurisprudence "Bisbal" de la cour de cassation française qui prévoit depuis trente ans l'application facultative de la loi étrangère vient aujourd'hui d'être modifiée. Par une série d'arrêts récents, la cour de cassation française vient d'imposer au juge français l'application d'office et obligatoire de la loi étrangère. Cette obligation s'impose uniquement dans les matières soumises à une convention internationale et dans les matières ou les parties n'ont pas la libre disposition de leurs droits. La jurisprudence Bisbal reste la solution de principe pour les autres cas. C'est une doctrine nouvelle de la cour de cassation qui vient bouleverser le droit international prive français.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Tay, Meng Keat. „Analyses des scènes dynamiques: Application à l´assistance à la conduite“. Grenoble INPG, 2009. http://www.theses.fr/2009INPG0168.

Der volle Inhalt der Quelle
Annotation:
Le développement des véhicules autonomes a reçu une attention croissant ces dernières années, notamment les secteurs de la défense et de l'industrie automobile. L'intérêt pour l'industrie automobile est motivé par la conception de véhicules sûrs et confortables. Une raison commune derrière la plupart des accidents de la circulation est due au manque de vigilance du conducteur sur la route. Cette thèse se trouve dans le problématique de l'estimation des risques de collision pour un véhicule dans les secondes qui suivent en condition de circulation urbaines. Les systèmes actuellement disponibles dans le commerce sont pour la plupart conçus pour prévenir les collisions avant, arrières, ou latérales. Ces systèmes sont généralement équipés d'un capteur de type radar, à l'arrière, à l'avant ou sur les côtés pour mesurer la vitesse et la distance aux obstacles. Les algorithmes pour déterminer le risque de collision sont fondés sur des variantes du TTC (time-to-collision en anglais). Cependant, un véhicule peut se trouver dans des situations où les routes ne sont pas droites et l'hypothèse que le mouvement est linéaire ne tient pas pour le calcul du TTC. Dans ces situations, le risque est souvent sous-estimé. De plus, les instances où les routes ne sont pas tout droit se trouve assez souvent dans les environnement urbain ; par exemple, les rond point ou les intersections. Un argument de cette thèse est que, savoir simplement qu'il y ait un objet à une certaine position et à une instance spécifique dans le temps ne suffit pas à évaluer sa sécurité dans le futur. Un système capable de comprendre les comportements de déplacement du véhicule est indispensable. En plus, les contraintes environnementales doivent être prises en considération. Le cas le plus simple du mouvement « libre » est d'abord traité. Dans cette situation il n'ya pas de contraintes environnementales ou de comportement explicite. Ensuite, les contraintes environnementales des routes sur trafic urbain et le comportement des conducteurs des véhicules sont introduits et pris en compte explicitement. Cette thèse propose un modèle probabiliste pour les trajectoires des véhicules fondé sur le processus gaussien (GP). Son avantage est le pouvoir d'exprimer le mouvement dans le futur indépendamment de la discrétisation d'espace et d'état. Les comportements des conducteurs sont modélisés avec une variante du modèle de Markov caché. La combinaison de ces deux modèles donne un modèle probabiliste de l'évolution complète du véhicule dans le temps. En plus, une méthode générale pour l'évaluation probabiliste des risques de collision est présentée, où différentes valeurs de risque, chacun avec sa propre sémantique
The development of autonomous vehicles garnered an increasing amount of attention in recent years. The interest for automotive industries is to produce safer and more user friendly cars. A common reason behind most traffic accidents is the failure on the part of the driver to adequately monitor the vehicle's surroundings. In this thesis we address the problem of estimating the collision risk for a vehicle for the next few seconds in urban traffic conditions. Current commercially available crash warning systems are usually equipped with radar based sensors on the front, rear or sides to measure the velocity and distance to obstacles. The algorithms for determining the risk of collision are based on variants of time-to-collision (TTC). However, it might be misleading in situations where the roads are curved and the assumption that motion is linear does not hold. In these situations, the risk tends to be underestimated. Furthermore, instances of roads which are not straight can be commonly found in urban environments, like the roundabout or cross junctions. An argument of this thesis is that simply knowing that there is an object at a certain location at a specific instance in time does not provide sufficient information to asses its safety. A framework for understanding behaviours of vehicle motion is indispensable. In addition, environmental constraints should be taken into account especially for urban traffic environments. A bottom up approach towards the final goal of constructing a model to estimate the risk of collision for a vehicle is presented. The simpler case of “free” motion is first presented. The thesis then proposes to take collision risk estimation further by being more “environmentally aware” where environmental structures and constraints are explicitly taken into account for urban traffic scenarios. This thesis proposes a complete probabilistic model motion at the trajectory level based the Gaussian Process (GP). Its advantage over current methods is that it is able to express future motion independently of state space discretization. Driving behaviours are modelled with a variant of the Hidden Markov Model. The combination of these two models provides a complete probabilistic model for vehicle evolution in time. Additionally a general method of probabilistically evaluating collision risk is presented, where different forms of risk values with different semantics can be obtained, depending on its applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Paul, Nicolas. „Une nouvelle approche pour l'Estimation des Mélanges de Lois : application à la radio cognitive“. Paris, CNAM, 2008. http://www.theses.fr/2008CNAM0592.

Der volle Inhalt der Quelle
Annotation:
La thèse porte sur l'estimation des mélanges de densités de probabilité (ddp). Le nombre K de composantes dans le mélange est supposé connu. Les supports des ddp des composantes sont supposés être suffisamment séparés pour que les modes des composantes restent des modes de la ddp du mélange. Notre approche utilise un critère original d’optimisation, appelé K-produit (KP). Ce critère présente l’avantage d’être plus facile à optimiser que les critères classiques, dérivés de la log-vraisemblance. En dimension 1 ou 2, le minimum global de KP s’obtient par la résolution d’un système de K équations linéaires suivi du calcul des racines d’un polynôme d’ordre K. En dimension quelconque, un algorithme itératif de relaxation peut être utilisé, dans lequel chaque étape consiste en une minimisation d’un simple critère de moindres carrés pondérés. Le minimum global du critère KP est un ensemble de K vecteurs répartis dans les K zones les plus denses de l’espace d’observation, fournissant ainsi une estimation biaisée mais utile des K espérances des composantes du mélange: Si les supports des composantes sont suffisamment séparés, un simple algorithme de classification au sens du plus proche voisin permet de séparer les différentes composantes à partir du minimum de KP. Une application originale de notre critère a ensuite été proposée dans le cadre de la radio cognitive et de l’accès opportuniste du spectre : Le critère KP est utilisé par un ensemble d’utilisateurs dit « secondaires » pour estimer les différents modes d’utilisation d’une bande de fréquence par un réseau d’utilisateurs dit « primaires »
This thesis deals with unsupervised mixture estimation. The number K of components is supposed to be known and the mixture components do not strongly overlap, so that the component modes remain modes of the mixture probability density function. Our approach is based on an original optimisation criterion, called “K-product”. The global optimisation of KP is easier than the global optimisation of the classical criteria, usually derived from the log-likelihood. In dimension 1 or 2, the global minimum of KP can be reached by first solving a system of K linear equations then finding the roots of some polynomial of order K. In higher dimension, a relaxation algorithm can be used, where each step simply consists of a weighted least square optimization. The global minimum of KP provides a biased but useful estimation of the component expectations: If the components do not strongly overlap, a simple nearest neighbour classification, based on the KP minimum, enable to separate the different components. An original application has been proposed in a cognitive radio context, where the KP criterion is used by a set of “secondary users” to estimate the different mode of activity of a set of “primary users” in a given radio spectrum band
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

BARRIAL, GATT CHRISTINE. „Mise en application de la loi huriet-serusclat dans le domaine de la recherche clinique a marseille“. Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX20184.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Leguicheux, Manuela. „La loi négociée en droit du travail“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2097.

Der volle Inhalt der Quelle
Annotation:
La place des acteurs sociaux lors de l’élaboration de la norme sociale légiférée se caractérise par une absence de reconnaissance constitutionnelle. L’autorité étatique est néanmoins consciente des vertus de la négociation collective. Même si la pratique existait auparavant, les pouvoirs publics ont permis de développer la négociation collective pré légiférante grâce principalement à l’introduction des articles L.1 à L.3 du Code du travail par la loi du 31 janvier 2007, conçus à l’image des procédures existantes en droit de l’Union européenne. L’association des acteurs sociaux au processus d’élaboration de la norme sociale a donc été favorisée. Pour autant, l’association des acteurs sociaux n’est pas totale. Le renforcement de leur légitimité est passé par une refonte du droit de la représentativité et du processus d’élaboration de la norme sociale mais une concurrence de légitimité est toujours visible entre une légitimité professionnelle détenue par les acteurs sociaux et une autre institutionnelle détenue par le Parlement. Au-delà du constat de l’association des acteurs sociaux au processus d’élaboration de la norme sociale, leur instrumentalisation semble avérée. Concernant la mise en œuvre de la loi négociée, la participation des acteurs sociaux à l’œuvre du législateur a été renforcée dans de nombreuses lois sociales. La répartition des compétences passe toujours par le législateur qui décide de laisser le pouvoir règlementaire dans les mains du pouvoir exécutif ou de le confier aux acteurs sociaux. Il est clair que les acteurs sociaux ne sont pas totalement libres lors de la mise en œuvre de la norme sociale même si la règle de la supplétivité est largement favorisée aujourd’hui. Lors du contrôle de la norme sociale négociée, les acteurs sociaux ont un rôle second alors qu’ils sont experts de l’application de la loi qu’ils ont négocié. Dans cette perspective, dans le processus de mise en œuvre de la norme négociée ils sont instrumentalisés par les pouvoirs publics
The involvement of social actors in the legislative making of labour norms is not enshrined in the French Constitution. The State is nevertheless aware of the virtues of collective bargaining. Although it existed in practice before, the government has enhanced the development of prelegislative collective bargaining, mainly through the adoption of the law of January 31st 2007 that resulted in the introduction of articles L.1 to L.3 in the Labour Code, a process that was designed to mirror existing EU law procedures. As a consequence, the participation of social actors in the making of labour norms has been favoured. But this does not necessarily imply their full participation. The consolidation of their legitimacy is also the result of a redesign of the rules governing representativeness and the law making process in the labour field in general. However, a competition between the professional legitimacy of social actors and the institutional legitimacy of Parliament still exists. So, going beyond the simple acknowledgment of the involvement of social actors in the making of labour norms, we demonstrate that they have been instrumentalised. The role of social actors alongside the legislator in the implementation of such negotiated laws has been strengthened in many legislative instances. But Parliament is still in charge of dividing competences between social actors and the government when it comes to the attribution of regulatory powers, it can decide whether those powers should remain in the hands of the latter or should be entrusted to the former. It is clear that social actors are not entirely free when it comes to implementing social norms, although the use of suppletive rules is encouraged today. During control of the implementation of those negotiated laws, social actors play only a secondary role despite their expertise on the matter. In that respect, we conclude that their instrumentalisation is also established when it comes to the implementation of negotiated labour norms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Raptopoulos, Themistoklis. „L'entrée en vigueur de la loi“. Thesis, Paris 2, 2018. http://www.theses.fr/2018PA020071.

Der volle Inhalt der Quelle
Annotation:
L’objet de cette étude est de mettre en évidence les traits distinctifs de l’institution que désigne le terme « entrée en vigueur de la loi ». Il s’agit d’un ensemble de règles et de pratiques correspondantes qui permettent aux acteurs du système juridique de déterminer avec précision le moment à compter duquel devient obligatoire toute nouvelle loi. Pour qu’une telle détermination soit possible, le système juridique doit consacrer au moins une règle de droit commun, à savoir une règle qui permet de déterminer, à défaut de disposition contraire, la date d’entrée en vigueur de toute nouvelle loi. La consécration d’une telle règle présuppose l’existence d’un critère qui permet de déterminer avec précision le moment où la procédure d’édiction chaque nouvelle loi est achevée. En droit positif français, ce critère est la promulgation. Pour rendre compte de cette fonction de la promulgation, il importe de distinguer entre deux séries de conditions d’entrée en vigueur : les conditions particulières, dont dépend l’entrée en vigueur des lois d’après les règles du droit positif, et les conditions générales, dont la réunion est nécessaire pour qu’il soit en premier lieu possible de consacrer des règles d’entrée en vigueur. Concernant les conditions particulières, l’étude des règles de droit commun montre que, contrairement à une idée communément admise, la publication n’est pas une condition nécessaire de l’entrée en vigueur des lois. S’agissant des conditions générales, il s’avère que l’institution de l’entrée en vigueur présuppose une conception volontariste de la loi et un haut degré de formalisation de la procédure de son édiction
This study aims at identifying the distinctive features of what is commonly referred to as “entry into force of statutes”. This term refers to a nexus of rules and practices that enable the agents of a legal system to determine in a precise manner the moment every statute becomes legally binding. For that to be possible, there must be at least one general rule that applies to any statute lacking a commencement clause. The existence of such a rule depends on the presence of a criterion that allows establishing the precise moment every bill becomes an enacted statute. In France, the relevant criterion is the formal act, known as promulgation, by which the Head of State signs a bill into law. In order to fully grasp the function thus performed by the act of promulgation, a distinction must be made between two kinds of conditions that can be said to be necessary for a statute’s entry into force. On the one hand, there are the specific conditions set out by the relevant rules of a legal system. On the other hand, there are some more fundamental conditions that a legal system must necessarily meet in order to provide for a general rule governing the entry into force of its statutes. As regards the conditions set out by the relevant rules of the French legal system, it turns out that, contrary to a commonly held idea, the rules in question do not make prior publication a necessary condition for the entry into force of statutes. As regards the aforementioned necessary conditions, it appears that the relevant rules and practices presuppose a voluntarist conception of law and, subsequently, a high level of formalism in the procedure followed for the enactment of statutes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Perales, Frédéric. „Fissuration des matériaux à gradient de propriétés. Application au Zircaloy hydruré“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00079015.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne la fissuration dynamique des matériaux à gradient de propriétés. Plus particulièrement, elle traite de la tenue des gaines de combustible, tubes minces et élancées, à fort taux de combustion lors de transitoires accidentels. La fissuration est étudiée à l'échelle locale et basée sur la notion de zone cohésive, laquelle est mise en oeuvre à l'aide d'une approche multicorps. Afin de prendre en compte une fissuration en mode mixte, les modèles de zone cohésive considérés sont couplés à du contact frottant. L'approche Non-Smooth Contact Dynamics est mise en oeuvre pour le traitement dynamique des problèmes de contact frottant non réguliers. Compte tenu des dimensions mises en jeu, une démarche multiéchelle permet de prendre en compte la microstructure dans un calcul de structure. A l'échelle microscopique, les propriétés effectives surfaciques, entre les corps, sont obtenues par homogénéisation numérique périodique. Une formulation à deux champs du problème Eléments Finis multicorps est ainsi obtenu. La méthode NSCD est alors étendue à cette formulation. L'outil de simulation numérique développé permet des simulations dynamiques en grandes transformations depuis l'amorçage de fissures jusqu'à la ruine du matériau. La mise en oeuvre à l'échelle microscopique est effectuée par calcul sur des cellules de bases pour plusieurs tirages de microstructures aléatoires. A l'échelle macroscopique, des calculs dynamiques de structures sur des portions de gaine en fonction du taux moyen et du gradient d'hydrogène mettent en évidence le rôle prépondérant de ces deux paramètres dans la tenue de la gaine sous chargement dynamique rapide.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Bridenne, Isabelle. „La cohérence des politiques publiques : concept, mesure et application à la loi portant réforme des retraites“. Nancy 2, 2006. http://www.theses.fr/2006NAN20003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Caramelle, Laurent. „Implantation d'une loi de commande. Application à la plate-forme de satellite de télécommunication eurostar 2000+“. Nancy 1, 1995. http://docnum.univ-lorraine.fr/public/SCD_T_1995_0338_CARAMELLE.pdf.

Der volle Inhalt der Quelle
Annotation:
L'évolution croissante des activités spatiales s'appuie sur des études théoriques complexes. Les systèmes industriels nécessitant des spécifications de robustesse et de performances de plus en plus contraignantes pour la régulation, une étude prospective a été envisagée. La société matra marconi space pose le problème de l'implémentation d'un correcteur à mots de longueur finie pour la plate-forme de satellite Eurostar 2000+. Cette étude a été retenue car elle constitue un excellent exemple de validation des lois de commande. Les travaux présentés dans ce mémoire traitent tout d'abord de la réduction de l'ordre du correcteur. L'intérêt des réalisations équilibrées, des factorisations Co-premières normalisées et des pondérations fréquentielles font l'objet d'une présentation. Une nouvelle méthode basée sur la réduction des facteurs co-premiers du correcteur et sur la réalisation équilibrée avec pondérations fréquentielles, assurant la stabilité en boucle fermée est présentée. Les problèmes lies à l'approximation d'un filtre continu par un filtre discret et à l'utilisation de ce dernier dans une boucle de régulation sont ensuite abordés. Enfin, le comportement des correcteurs digitalisés est étudié. Il tient compte du fait que leur implantation réelle est à mots finis. Les différentes réalisations d'état, calculées à partir du correcteur obtenu lors de la phase de discrétisation du correcteur continu initial, ne sont donc plus équivalentes. Le problème consiste à déterminer, parmi une infinité de réalisations d'état, celle qui est la moins sensible aux troncations dues à l'implantation à mots de longueur finie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Lallich, Stéphane. „La méthode des plus proches voisins : de la dispersion spatiale à l'analyse multidimensionnelle“. Saint-Etienne, 1989. http://www.theses.fr/1989STET4006.

Der volle Inhalt der Quelle
Annotation:
Notre travail est consacré à la méthode des plus proches voisins, en tant qu'outil d'analyse de la dispersion spatiale, et à sa généralisation multidimensionnelle. Analyser la dispersion d'individus placés dans un domaine-plan est un problème classique des biologistes, des géographes, des économistes ou de l'analyse d'image. Pour ce faire, la méthode des plus proches voisins utilise un échantillon de distances entre un point pris au hasard dans le plan et le plus proche individu d'ordre k. Le modèle de référence est le modèle au hasard, dont le rejet peut se faire en direction d'un modèle régulier, ou d'un modèle agrégatif (agrégativité vraie ou hétérogénéité). A la suite d'une introduction qui formalise la notion de dispersion spatiale, nous étudions les statistiques de distances sous les hypothèses de dispersion évoquées. Le problème du choix de la taille des agrégats, lors de la construction du modèle d'agrégativité vraie, nous a amené à construire un modèle général de loi discrète, fondé sur la notion de loi récurrente, qui intègre les lois usuelles, et qui soit stable par translation et troncature. Puis nous nous intéressons à la mise en oeuvre de la méthode, de la constitution d'un échantillon de distances, aux procédures de test et d'estimation. Enfin, nous procédons à la généralisation multi dimensionnelle des résultats obtenus, et nous abordons divers problèmes, tels que la prise en compte exacte des effets des bords du domaine, ou le recours à une métrique de Minkowski. Nous montrons alors l'intérêt de nos résultats pour la méthode des plus proches voisins utilisée en classification, avec les plus proches voisins réciproques, et en reconnaissance des formes, à travers l'étude de la complexité des algorithmes de recherche de plus proches voisins
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Morio, Vincent. „Contribution au développement d'une loi de guidage autonome par platitude. Application à une mission de rentrée atmosphérique“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00394728.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur le développement d'une loi de guidage autonome par platitude pour les véhicules de rentrée atmosphérique. La loi de guidage autonome proposée dans ce mémoire s'appuie sur le concept de platitude, afin d'effectuer un traitement des informations à bord, dans le but double d'attribuer un niveau de responsabilité et d'autonomie au véhicule, déchargeant ainsi le segment sol de tâches opérationnelles ``bas niveau'', pour lui permettre de mieux assumer son rôle de coordination globale. La première partie de ce mémoire traite de la caractérisation formelle de sorties plates pour les systèmes non linéaires régis par des équations différentielles ordinaires, ainsi que pour les systèmes linéaires à retards. Un algorithme constructif est proposé afin de calculer des sorties delta-plates candidates sous un environnement de calcul formel standard. Dans la seconde partie, une méthodologie complète et générique de replanification de trajectoires de rentrée atmosphérique est proposée, afin de doter le véhicule d'un certain niveau de tolérance à des défauts d'actionneurs simple/multiples, pouvant survenir lors des phases critiques d'une mission de rentrée atmosphérique. En outre, une méthodologie d'annexation superellipsoidale est proposée afin de convexifier le problème de commande optimale décrit dans l'espace des sorties plates. La loi de guidage autonome proposée est ensuite appliquée étape par étape à une mission de rentrée atmosphérique pour la navette spatiale américaine STS-1.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Touati, Karim. „Validation probabiliste d'un code de calcul numérique : application aux calculs des fondations superficielles avec une loi élastoplastique“. Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0344.

Der volle Inhalt der Quelle
Annotation:
Les progrès récents des techniques expérimentales, de la modélisation rhéologique, des outils informatiques et de calculs, dans le domaine de la mécanique des sols, ont abouti à la réalisation de codes de calculs numériques utilisant des modèles de comportement sophistiques capables de décrire les aspects les plus complexes de la rhéologie du matériau. L'utilisation de ces codes de calculs dans le dimensionnement des grands ouvrages de géotechnique reste fragmentaire en raison des lacunes persistant dans la définition de leur domaine d'application et dans leur validation. Le présent travail a été réalisé dans le cadre du groupe validation des codes du gréco-géomatériaux, au sein du projet erreur de code. Ce travail a pour objectif de développer une méthodologie d'estimation de l'erreur de code pour assurer la prise en compte des incertitudes, erreurs et autres aléas dans le processus de validation des codes. Il comprend huit chapitres qui ont été regroupés en trois parties. La première partie, qui comprend trois chapitres, fixe le cadre général de l'étude, présente la methodologie générale de validation, recense les différents essais et outils informatiques développés pour sa mise en application (dossiers de validation) et expose la méthodologie que nous avons conçue pour une validation probabiliste des codes de calcul. La deuxième partie est consacrée à la valorisation de l'information en géotechnique pour sa prise en compte dans les modélisations. Elle présente l'outil complémentaire nécessaire à la validation de la modélisation numérique en géotechnique, outil qui consiste en une banque de données rhéologiques pour les sols, Modelisol, en partie conçue et développée dans le cadre de ce travail. La troisième partie rassemble, dans le sixième chapitre, l'ensemble des données et des outils propres à cette étude ainsi que leurs traitements. On présente dans les deux derniers chapitres, la mise en œuvre complète de la méthodologie erreur de code: les résultats de la modélisation du comportement du sol sous chemins de sollicitations homogènes réalisés au laboratoire, les résultats des calculs d'enfoncement de fondations superficielles en centrifugeuse, comparés à l'ensemble des résultats expérimentaux et enfin les différents traitements realisés pour estimer la dispersion des résultats, évaluer l'influence des aléas experimentaux et bâtir des modèles de prédiction des différents écarts entre résultats expérimentaux et résultats de calculs définis par cette méthodologie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Revenu, Pascale. „Caractérisation rhéologique en cisaillement et en élongation de polyéthylènes : application d'une loi de comportement de type Wagner“. Saint-Etienne, 1992. http://www.theses.fr/1992STET4019.

Der volle Inhalt der Quelle
Annotation:
Deux Polyéthylènes (PEBD ET PEBDL) sont testés dans différentes situations d'écoulement : Cisaillement en régime stationnaire et en régime transitoire, elongation uniaxiale pure, filage isotherme et écoulement convergent (analyse de Gogswell). Les résultats expérimentaux sont comparés aux prévisions d'un modèle de type Wagner, nécessitant la détermination de la fonction mémoire et de la fonction d'amortissement. La première est calculée directement à partir des spectres discrets de relaxation obtenus par des mesures dynamiques de G’ et G’’, et la seconde à partir d'expériences de cisaillement et d'élongation en régime transitoire. La validité du modèle et des techniques expérimentales utilisées est discutée et l'influence prédominante des branchements longs sur le comportement rhéologique en cisaillement et en élongation est mise en évidence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Fouquet, Marine. „La notion de choix de la loi entre droit et management : Application aux contrats et contentieux extractifs“. Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1G009.

Der volle Inhalt der Quelle
Annotation:
Le droit des contrats internationaux est un champ du droit international concrétisant une relation particulière entre États, acteurs de l’ordre international public, et investisseurs, acteurs de l’ordre international privé, dont les contours et les évolutions ont été déterminés par les mutations de l’ordre économique international. Doctrines et pratiques des professionnels du droit et de la théorie du commerce international ont en effet largement contribué à la structuration de ce champ du droit à la frontière du droit international public et du droit international privé. Le droit international privé, à travers ses règles de conflit de loi, et le principe d’autonomie étudie depuis longtemps la question du choix de la loi. Mais aujourd'hui au sein de cet espace normatif, traversé de pratiques et d’usages juridiques diversifiés un renversement de paradigme semble émerger. En effet, aujourd’hui le droit international n’est plus seulement constitué des règles de droit des Etats et des organisations internationales, c’est le droit choisi par les praticiens du droit international qui participe à la construction de cet espace normatif. L’objet de ce projet de recherche est ainsi d’étudier les choix dans les contrats internationaux, à travers l’étude des contrats extractifs, contrats où par excellence se pose cette problématique. Cette question du choix de la loi est depuis longtemps étudiée en droit international privé, notamment à travers le principe d’autonomie. Cependant, aujourd’hui, d’autres champs du droit doivent être analysés. Le droit des affaires, le droit des investissements, le droit social, par exemple, constituent ce droit transnational qui semble aujourd’hui être un cadre d’analyse plus adapté. Une approche par la pratique, par l’étude des cas, a été suivie afin de mieux comprendre l’articulation entre la stratégie internationale des firmes et les stratégies et pratiques juridiques suivies. Cette approche originale par les sciences juridiques et les sciences de gestion permet également une lecture plus globale et adaptée aux problématiques actuelles du droit des contrats internationaux qui évoluent dans un environnement complexe et mondialisé. Cet angle d'étude des contrats internationaux contribue à une analyse qui prend en compte l'ensemble des parties prenantes d'un contrat, à la lumière du droit positif
International contract law is a field of international law that embodies a particular relationship between States, actors of public international order, and investors, actors of private international order, whose contours and developments have been determined by changes in international economic order. Doctrines and practices of legal professionals and international trade theory have indeed largely contributed to the structuring of this field of law at the border between public international law and private international law. Private international law, through its conflict of law rules and the principle of autonomy, has long studied the question of choice of law. But today, within this normative space, crossed by diverse legal practices and uses, a paradigm reversal seems to emerge. Indeed, today international law is no longer only made up of the rules of law of States and international organizations, it is the law chosen by practitioners of international law that participates in the construction of this normative space. The object of this research project is thus to study the choices in international contracts, through the study of extractive contracts, contracts where par excellence this issue arises. This question of choice of law has long been studied in private international law, notably through the principle of autonomy. However, today other fields of law need to be analyzed. Business law, investment law, social law, for example, constitute this transnational law which seems today to be a more suitable framework for analysis. A practice-based approach, through the study of cases, was followed in order to better understand the articulation between the international strategy of firms and the legal strategies and practices followed. This original approach by legal and management sciences also allows a more global reading and adapted to current issues of international contract law which evolve in a complex and globalized environment. This angle of study of international contracts contributes to an analysis that takes into account all the parties involved in a contract, in the light of positive law
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Morio, Vincent. „Contribution au développement d’une loi de guidage autonome par platitude : application à une mission de rentrée atmosphérique“. Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13797/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur le développement d'une loi de guidage autonome par platitude pour les véhicules de rentrée atmosphérique. La problématique associée au développement d'une loi de guidage autonome porte sur l'organisation globale, l'intégration et la gestion de l'information pertinente jusqu'à la maîtrise du système spatial durant la phase de rentrée. La loi de guidage autonome proposée dans ce mémoire s'appuie sur le concept de platitude, afin d'effectuer un traitement des informations à bord, dans le but double d'attribuer un niveau de responsabilité et d'autonomie au véhicule, déchargeant ainsi le segment sol de tâches opérationnelles "bas niveau", pour lui permettre de mieux assumer son rôle de coordination globale. La première partie de ce mémoire traite de la caractérisation formelle de sorties plates pour les systèmes non linéaires régis par des équations différentielles ordinaires, ainsi que pour les systèmes linéaires à retards. Des algorithmes constructifs sont proposés afin de calculer des sorties plates candidates sous un environnement de calcul formel standard. Dans la seconde partie, une méthodologie complète et générique de replanification de trajectoires de rentrée atmosphérique est proposée, afin de doter la loi de guidage d'un certain niveau de tolérance à des pannes actionneur simple/multiples pouvant survenir lors des phases critiques d'une mission de rentrée atmosphérique. En outre, une méthodologie d'annexation superellipsoidale est proposée afin de convexifier le problème de commande optimale décrit dans l'espace des sorties plates. La loi de guidage proposée est ensuite appliquée étape par étape à une mission de rentrée atmosphérique pour la navette spatiale américaine STS-1
This thesis deals with the design of an autonomous guidance law based on flatness approach for atmospheric reentry vehicles. The problematic involved by the design of an autonomous guidance law relates to the global organization, the integration and the management of relevant data up to the mastering of the spacecraft during the re-entry mission. The autonomous guidance law proposed in this dissertation is based on flatness concept, in order to perform onboard processing so as to locally assign autonomy and responsibility to the vehicle, thus exempting the ground segment from "low level" operational tasks, so that it can ensure more efficiently its mission of global coordination. The first part of the manuscript deals with the formal characterization of flat outputs for nonlinear systems governed by ordinary differential equations, as well as for linear time-delay systems. Constructive algorithms are proposed in order to compute candidate flat outputs within a standard formal computing environment. In the second part of the manuscript, a global and generic reentry trajectory replanning methodology is proposed in order to provide a fault-tolerance capability to the guidance law, when facing single/multiple control surface failures that could occur during the critical phases of an atmospheric reentry mission. In addition, a superellipsoidal annexion method is proposed so as to convexify the optimal control problem described in the flat outputs space. The proposed guidance law is then applied step by step to an atmospheric reentry mission for the US Space Shuttle orbiter STS-1
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Morio, Vincent Zolghadri Ali Cazaurang Franck. „Contribution au développement d'une loi de guidage autonome par platitude application à une mission de rentrée atmosphérique /“. S. l. : Bordeaux 1, 2009. http://ori-oai.u-bordeaux1.fr/pdf/2009/MORIO_VINCENT_2009.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Berrada, Gouzi Abderrahmane. „La loi de l'entropie en science régionale : une application à l'étude de la hiérarchie urbaine marocaine : 1900-1982“. Paris 10, 1985. http://www.theses.fr/1985PA100258.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

DARME, XAVIER. „Mise en application de la loi huriet sur la pharmacie hospitaliere : implications pour l'hopital central et l'hopital saint-julien du chu nancy. analyse du role du pharmacien. documents et procedures“. Nancy 1, 1993. http://www.theses.fr/1993NAN1A208.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

DEBRUN, REMY. „La loi du 27 juin 1990 : mise en application au centre hospitalier specialise montperrin pendant les six premiers mois“. Aix-Marseille 2, 1991. http://www.theses.fr/1991AIX20952.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Muberanziza, Aloys. „L'égal accès du citoyen aux affaires publiques de son pays : essai de théorie générale et application au Rwanda /“. Namur : Presses universitaires de Namur, 2006. http://catalogue.bnf.fr/ark:/12148/cb401895136.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Hidd, Fonteles Leonardo. „Lattice vector indexing for generalized gaussian distribution : application to source coding“. Nice, 2009. http://www.theses.fr/2009NICE4010.

Der volle Inhalt der Quelle
Annotation:
Les travaux de thèse ici présentés portent une attention particulière au comptage et à l'indexage des vecteurs d'un réseau régulier de points appartenant à des surfaces multidimensionnelles de norme Lp constante. Deux approches distinctes ont été adoptées, à savoir: le comptage des vecteurs au moyen de la série téta généralisée et de l'analyse Bohr-Fourier pour des fonctions presque périodiques; l'indexage des vecteurs leaders basée sur la théorie des partitions. La première approche généralise d'une façon très élégante les divers résultats d'énumération présents dans la littérature pour des valeurs de p quelconques et pour des réseaux tels que Dn, En, Barnes-Wall, Leech. La deuxième approche a abouti à un algorithme à faible complexité de calcul et à faible coût mémoire permettant l'indexage des vecteurs du réseau Zn pour des valeurs de norme et de dimension élevées et de p quelconques. Ces travaux ont été motivés en partie par l'utilisation de la quantification vectorielle algébrique (QVA) dans le contexte de codage de source. D'après la théorie de débit-distorsion de Shannon, la quantification vectorielle tend à être plus performante que la quantification scalaire pour des vecteurs de dimension arbitrairement élevées. Ainsi, une étude de performance débit-distorsion à été menée en utilisant l'algorithme d'indexage proposé dans le cadre de la QVA avec un codeur du type code produit. Des sources de distribution Gaussienne généralisée (DGG) avec différentes valeurs de paramètres de forme p ont été codées à l'aide du schéma proposé, les résultats obtenus se sont révélés prometteurs face à des techniques de l'état de l'art. L'impact de la mutualisation de l'information dans les performances de débit-distorsion a été également évalué lorsque le schéma de codage est appliqué à des données DGG corrélées. Une approche basée sur l'analyses en composantes indépendantes (ACI) à donc été proposé afin d'améliorer les performances de codage. Le schéma de compression a été également évalué dans le cadre du codage des images 2D et des maillages 3D surfaciques apportant des résultats très encourageant. Un schéma de recherche dans une base de données image à aussi été élaboré atteignant de bons résultats grâce à l'efficacité de l'algorithme d'indexage
In this thesis we have being particularly interested in enumerating and indexing lattice vectors belonging to multidimensional surfaces of constant distance to the origin under the Lp metric. We developed two different approaches: vector enumeration using the generalized theta series and the Bohr-Fourier analysis for almost periodic functions; leader vector indexing based on the theory of partitions. The former one generalizes in an elegant way the different enumeration techniques we find in the literature, proposing an enumeration solution for arbitrary values of p and for different lattices such as Zn, Dn, En, Barnes-Wall, Leech. The latter approach results in an low computational complexity and memory requirement algorithm able to index Zn lattice vectors of high norms and dimensions for arbitrary values of p. The presented works have been motivated in part by the use of the lattice vector quantization (LVQ) in the source coding context. According to the Shannon's rate-distortion theory, vector quantization has the potential to achieve the optimal theoretical performance if the vector dimension is arbitrarily high. Therefore, we investigated the rate-distortion performance of the LVQ coupled to a product code encoder based on the proposed indexing technique. In order to do so we have encoded memoryless generalized Gaussian distribution (GGD) sources with different shape parameter p using the proposed scheme, the results obtained being very encouraging compared to state-of-the-art techniques. As a step forward we investigated the impact of the mutual information over the rate-distortion performance when applying the proposed encoding scheme to correlated GGD sources. As result, we developed an approach based on the independent component analysis (ICA) in order to improve the coding performances. Such compression scheme have also been applied in the context of 2D still images and 3D surface meshes yielding very competitive results. We have also elaborated an image database retrieval technique based on the proposed indexing method achieving very good speed-precision results thanks to the efficiency of the indexing algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Caestecker, Pascal. „Contribution à l'analyse et au choix de l'identification d'une loi de comportement - Application à la simulation numérique de la coupe“. Rennes, INSA, 2003. http://www.theses.fr/2003ISAR0022.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté apporte une contribution à l'analyse de lois de comportement utilisées dans une simulation d'usinage en coupe orthogonale à l'échelle mésoscopique par élément finis ; une comparaison entre la loi Johnson Cook et une loi de type Arcsinhyperbolique pour deux aciers différents est ainsi effectuée. Pour un acier de type 35NCD16, une identification par analyse inverse (données observables et modèle éléments finis simplifié du dispositif SHPB avec un échantillon cylindrique) est nécessaire afin d'obtenir les paramètres respectifs des lois vis-à-vis de la vitesse de déformation. Pour l'acier inoxydable austénitique type 304, une identification directe est effectuée vis-à-vis du caractère d'écrouissage à deux paliers du matériau. On montre l'influence des lois dans les deux simulations d'usinage et la capacité de la loi proposée à bien gérer de forts gradients de vitesses de déformation ainsi que la transformation de phase martensitique induite par les grandes déformations
This study is a contribution to the choice of a metallic material behaviour's law in the framework of a FEM simulation of an orthogonal cutting in a mesoscopic scale; it compares the Johnson Cook law with a Arcsinhyperbolic type law. In a first case, for a 35NCD16 steel, parameters are identified by inverse analysis (observable data and simplified FEM model of SHPB device with a cylindrical sample) with respect to strain rate. In a second case, a direct identification is carried out for a stainless steel type 304 with respect to its two state shaped curve. The strong influence of the behaviour law in both cases is showed and the capacity of the proposed law to account strong gradients of strain rate in the simulation of cutting. It is showed also that it treats correctly the transition phase phenomenon between the austenitic component and the martensitic one induced by the plastic deformation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Rouainia, Mohamed. „Modélisation de l'interaction sol-structure par éléments finis de haute précision et loi d'interface incrémentale non linéaire : application aux pieux“. Grenoble 1, 1992. http://www.theses.fr/1992GRE10128.

Der volle Inhalt der Quelle
Annotation:
Ce memoire presente une etude numerique de l'interaction sol-structure. Le comportement de l'interface sol-structure est modelise par une loi incrementale a dependance directionnelle, ou l'on s'efforce de traduire de facon correcte les fortes variations des contraintes provoquees en particulier par la rupture des grains. Ensuite l'approche numerique du probleme de contact par la methode des elements finis est abordee. Une attention particuliere est accordee aux oscillations des contraintes au niveau des elements d'interface. L'apparition de ces oscillations est liee en particulier au choix de la methode d'integration numerique (newton-coles, gauss). Un algorithme d'integration locale a pas adaptatif, de la loi incrementale d'interface est propose. Le modele incremental est ensuite utilise dans la simulation numerique de l'arrachement des pieux en chambre de calibration, et les resultats concernant le frottement lateral sont confrontes avec ceux donnes par un modele elastoplastique d'interface et par les essais experimentaux
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Eymery, Céline. „Du texte à la carte : contribution de la géographie à la traduction spatiale de la loi Littoral : application en Bretagne“. Thesis, Brest, 2014. http://www.theses.fr/2014BRES0104/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose une contribution de la géographie à la traduction spatiale de la loi Littoral. Depuis de nombreuses années, le littoral est devenu un espace sous pression. La loi no 86-2 du 03 janvier 1986 relative à l’aménagement, la protection et la mise en valeur du littoral est venue encadrer les usages du sol en bord de mer en autorisant le développement d’une urbanisation raisonnée tout en protégeant des espaces naturels. Afin de réglementer l’usage des espaces littoraux, par nature variés, cette « loi-cadre » a été volontairement conçue et rédigée avec des notions imprécises (l’agglomération, les espaces proches du rivage, les coupures d’urbanisation, etc.). Cette imprécision a fait et fait toujours l’objet de problèmes d’interprétation par les différents acteurs (les élus, les services de l’État, les propriétaires privés, etc.). L’esprit de la « loi Littoral » encourage à tenir compte des spécificités des territoires pour interpréter les notions de cette loi et les traduire dans les documents d’urbanisme. Dans ce contexte, la question de l’apport de la géographie dans l’interprétation de cette loi, notamment par la spatialisation de ces notions, se pose donc avec intérêt. L’hypothèse selon laquelle l’interprétation de la loi Littoral peut être éclairée par la « géographie juridique » est formulée. La thèse cherche à démontrer par des approches théoriques et méthodologiques que la géographie, au moyen de l’analyse spatiale et de la cartographie, permet d’apprécier ces notions en fonction des spécificités locales et des choix faits pour développer et préserver chaque territoire. Ainsi, l’utilisation de critères géographiques peut guider les acteurs vers une interprétation en adéquation avec la réalité des territoires. Dans cette optique, des outils et des méthodes de traitement de l’information spatiale sont utilisés à l’aide d’un système d'information géographique (SIG) pour cartographier des critères de géographie et tester différents seuils. La démonstration, mise en application sur des communes littorales bretonnes, met en avant que le choix des critères et des seuils dépend indéniablement du projet de territoire
This thesis proposes a contribution of geography to the spatial translation of the Coastal Law (Loi Littoral). For many years, the coast has become a space under pressure. Law No 86-2 of 3 January 1986 relating to coastal development, protection and enhancement was developed to regulate land uses on the seaside, thus allowing the development of a rational urbanisation while protecting natural areas. In order to regulate the usage of coastal areas, diverse in nature, this "framework law" was deliberately designed and written with imprecise notions (urban clusters, near-shore areas, gaps in urbanisation, etc.). This imprecision was and still is leading to problems of interpretation by different players (politicians, State services, private landowners, etc.). The spirit of the Coastal Law is to encourage the consideration of local specificities when interpreting the notions of this law and translating it into spatial planning documents. In this context, the question of the relevance of geography in the interpretation of the Coastal Law, including the spatial distribution of these notions, is therefore of interest.The assumption that the interpretation of the Coastal Law can be deepened by "legal geography" is thus formulated. The thesis seeks to demonstrate by theoretical and methodological approaches that geography, by means of spatial analysis and mapping, allows us to appreciate these notions on the basis of local conditions as well as the choices made to develop and preserve every land. Thus, the use of geographical criteria can guide stakeholders towards an interpretation in line with the reality of the territories. In this context, tools and methods for spatial information are used with the help of a geographic information system (GIS) to map the different criteria and test different thresholds. The demonstration, implemented on Breton coastal communities, highlights that the choice of criteria and thresholds is undeniably dependent of the territory's project
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Leiris-Laurent, Corinne de. „Application de la loi de Dalton à la détermination instantanée de la composition gazeuse d'un système clos par spectrométrie de masse“. Le Havre, 1992. http://www.theses.fr/1992LEHA0003.

Der volle Inhalt der Quelle
Annotation:
Un ensemble d'analyse spectrométrique comportant un système de transfert multifonctionnel permettant l'analyse directe et rapide d'une atmosphère contenue dans une enceinte a été mis au point. Il a permis de démontrer la faisabilité d'analyses industrielles ainsi que les avantages que cette technique pouvait apporter par rapport aux techniques classiques. Ces analyses sont : le suivi de la composition gazeuse dans des sachets de 4eme gamme, le dénombrement d'une population microbienne par mesure du taux de dioxyde de carbone, la détermination du taux de carbonatation d'un liquide, l'étude des propriétés de perméabilité de films aux gaz. Les métabolites volatils émis par une souche de clostridium sporogènes ont également été mis en évidence. Il s'agit d'une étude préliminaire dont l'objectif final est la caractérisation d'un groupe de souches ou d'une souche microbienne par spectrométrie de masse directe.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Losser, Yannick. „Ajustement de lois de commande et application en aéronautique“. Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0004.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’inscrit dans le cadre du développement d’outils d’analyse et de synthèse de lois de commande en aéronautique. La synthèse d’une loi de commande pour réguler ou asservir un système doit pouvoir satisfaire un cahier des charges préalablement établi. En aéronautique, du fait que les critères sont exigeants et nombreux et que les avions gagnent en dimension et en souplesse, le processus de synthèse de loi devient de plus en plus long et complexe. L'ajustement de loi de commande a pour principal intérêt d’éviter de reprendre tout le processus de synthèse à son début quand la loi ne donne pas entière satisfaction ou quand certains objectifs de commande sont modifiés ou ajoutés. Il est parfois préférable de ne retoucher que quelques paramètres de la loi, surtout si la structure de celle-ci est imposée. Dans le contexte applicatif qui nous intéresse, nous souhaitons réduire la norme H₂ d’un transfert entre une perturbation et des niveaux de charges mesurés sur un avion. Quand il s’agit de ne modifier que quelques gains de la loi, l'ajustement peut être vu comme la synthèse d’un retour statique. Les outils développés ces dernières années pour la commande robuste peuvent s’appliquer dans ce cadre, mais le problème de synthèse d’un correcteur statique n’a pas reçu à ce jour de réponse définitive. Les travaux de cette thèse cherchent à développer des démarches appropriées pour un tel ajustement. Deux axes d’étude ont été abordés. Le premier consiste en l'élaboration de techniques d’ajustement dans le but de réduire une norme H₂ en ne modifiant que quelques gains de la loi. Des outils basés d’une part sur la théorie LMI et d’autre part sur la résolution d’équations de LYAPUNOV sont construits, testés et comparés sur l’application. Ces méthodes ont une structure itérative et des optimisations par approximations aux 1er et 2e ordres de la variation du critère ont été introduites. Le second axe de recherche est le développement de techniques permettant la définition de plages acceptables de gains pour satisfaire une valeur donnée a priori du critère. Nous nous basons pour cela sur un outil d’analyse de performance H₂ proposé par PAGANINI que nous modifions et inversons. L'approche est testée et évaluée sur l’application avion.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Szmytka, Fabien. „Nouveaux modèles de comportement élasto-viscoplastique pour des matériaux métalliques. Application au dimensionnement de structures automobiles“. Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00004111.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de cette étude est de proposer des lois de comportement macroscopiques permettant de décrire la viscosité de matériaux métalliques sur une large gamme de température et de vitesse de déformation. En effet, dans un contexte industriel fortement concurrentiel, le dimensionnement de structures comme le collecteur d'échappement des moteurs Diesel doit être rapide et prédictif. Les lois de comportement des matériaux jouent un rôle capital dans ce processus de dimensionnement. En effet, la multiaxialité et le caractère anisotherme des chargements appliqués aux collecteurs d'échappement induisent un comportement élastoviscoplastique du matériau et in fine de la structure. Bien qu'elles répondent aux principales exigences de coût, de masse et d'usinabilité, les fontes à graphite sphéroïdal, très souvent choisies comme matériau constitutif de ces pièces, ont un comportement complexe marqué par une très forte viscosité à hautes températures. Ainsi, les structures comme le collecteur d'échappement sont soumises principalement à deux contraintes lors de leur dimensionnement : - La prévention de tout risque d'amorçage de fissure lors de leur durée de vie nominale. On doit ainsi développer des méthodes de dimensionnement à la fatigue thermomécanique oligocyclique car ce sont les cycles de démarrage-arrêt du moteur qui sont endommageant pour la structure. - La prévention de tout risque de fuite et de dérives dimensionnelles. En effet, la succession de cycles thermomécaniques sévères peut induire une accumulation de déformation inélastique dans certaines zones de la structure et alors engendrer de fortes déformées globales. Ces "dérives" peuvent alors être à l'origine de défaut d'étanchéité et de perte de gaz d'échappement. Si une méthodologie efficace pour dimensionner les structures à l'initiation de fissure existait d'ores et déjà dans les bureaux d'études de PSA Peugeot Citroën, la prise en compte des phénomènes de dérives dimensionnelles restait un sujet peu exploré mais néanmoins crucial. En effet, les structures fonctionnent de plus en plus souvent à la limite de leurs capacités et une modélisation efficace de leur comportement permettrait des calculs de dimensionnement prédictifs tout en diminuant les temps de conception. De nombreuses solutions sont envisagées dans la littérature afin de modéliser le comportement élastoviscoplastique de matériau comme la fonte à graphite sphéroïdal. Leur capacité à bien décrire l'évolution d'un matériau soumis à des chargements complexes n'est que rarement avérée pour une large gamme de vitesses de déformation mécanique et inélastique. Par ailleurs, elle dépend fortement de la base expérimentale grâce à laquelle les paramètres de la loi ont été identifiés. Nous nous sommes donc attachés, au cours de cette étude, à constituer des bases expérimentales originales, composées d'essais (écrouissage cyclique, déformation progressive à vitesse constante ou Slow-Fast) qui ont permis de mieux comprendre le comportement de la fonte pour des températures variées (de l'ambiante à 700°C) et des niveaux de déformation multiples. En sollicitant le matériau sur de larges gammes de vitesses de déformation notamment inélastique, ils ont contribué à constituer une base de données souvent plus riche que celles que l'on trouve dans la littérature pour un nombre d'essais et donc un temps de développement réduit. Deux modélisations ont alors été proposées pour décrire le comportement élastoviscoplastique d'une fonte à graphite sphéroïdal particulière : la fonte SiMo. La première d'entre elles se base sur un potentiel visqueux innovant décrivant l'évolution de l'écoulement à l'échelle macroscopique en s'inspirant de la physique à l'échelle des dislocations et de la plasticité cristalline. En combinant différents termes valant pour différents régimes de températures, elle a permis de bien décrire la majorité des essais d'écrouissage cyclique et notamment les cinétiques de relaxation. Constituée de 7 paramètres par température identifiée (soit un de plus que les lois utilisées jusqu'alors par PSA Peugeot Citroën), dont l'évolution avec la température est physiquement ! réaliste, elle ne permet toutefois pas de bien décrire les essais réalisés à vitesse lente ou pour de faibles niveaux de déformation. La seconde loi a donc été développée à partir du même potentiel visqueux enrichi pour réduire la viscoplasticité pour les faibles déformations. Couplée à un terme d'écrouissage isotrope, cette nouvelle loi d'écoulement a permis de corriger les principaux défauts de la première modélisation proposée ainsi que de bien décrire l'ensemble des essais de la base expérimentale. Composée de 11 paramètres, obtenus grâce à une stratégie d'identification adaptée et rapide, elle permet une très bonne description des phénomènes visqueux et est capable de reproduire des essais anisothermes représentatifs des sollicitations sur collecteur avec bien plus d'acuité que les lois de référence utilisées par PSA Peugeot Citroën. Les deux lois de comportement, dont l'admissibilité thermodynamique a été vérifiée, ont été intégrées dans un schéma de calcul de structure. Leur implémentation numérique est fondée sur un algorithme implicite de type retour radial permettant d'obtenir des temps de calcul compatibles avec les exigences des bureaux d'études. Ces modélisations ont ensuite été validées sur deux architectures de collecteur d'échappement et la faisabilité de calculs rapides de collecteur d'échappement sous chargement thermique transitoire a alors été démontrée. Différents calculs de type éléments finis ont permis de démontrer l'amélioration certaine apportée par les lois proposées par rapport aux lois de référence pour déterminer la déformée globale de la structure et pour prévenir d'éventuelles fuites de gaz d'échappement. Ces mêmes calculs ont également permis de montrer que l'utilisation de ces deux nouvelles lois était compatible avec le critère de dimensionnement à la fatigue oligocyclique utilisé chez PSA. On peut donc maintenant prendre efficacement en compte, grâce aux modélisations proposées, les deux contraintes de dimensionnement des collecteurs d'échappement dès les calculs en bureaux d'études et ainsi diminuer les temps et les coûts de développement de telles structures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Qin, Xiaowen. „Modeling Study of Pyrolysis of Composite Materials : Application to Wood and Carbon/Epoxy Composite“. Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2021. http://www.theses.fr/2021ESMA0006.

Der volle Inhalt der Quelle
Annotation:
Les matériaux composites prennent une place importante dans les applications industrielles ou plus largement dans notre vie courante. Les composites synthétiques substituent les matériaux métalliques en raison du gain de poids pour des propriétés mécaniques identiques. Ce type de matériaux est largement répandu dans les domaines du transport et du stockage de l’énergie. Les composites naturels (bois) sont également très utilisés notamment dans le domaine de l’habitat. L’inconvénient de ces matériaux réside dans leur difficulté à maintenir leurs caractéristiques mécaniques en cas d’incendie ; l’étude de leur tenue au feu est donc un enjeu majeur. Ce travail de thèse vise à développer un modèle numérique de décomposition d’un matériau composite soumis à un flux de chaleur. La simulation de différents cas d’attaque thermique permet d’étudier les interactions entre les processus de transferts de masses, de chaleur et de réactions chimiques au sein du solide. Le modèle développé, 3D décrit les transports au sein des pores du matériau à l’échelle de Darcy. Le transfert de chaleur par conduction est écrit sous forme tensoriel permettant de définir des conductivités dans les 3 directions de l’espace. Pour les 2 types de matériaux, un schéma réactionnel multi-étapes est défini afin de décrire le processus de pyrolyse. Les essais en cône calorimètre qui ont servi à développer le modèle ont été réalisées sous atmosphère inertes (N2) ce qui permet « d’éliminer » la présence de la flamme à la surface du matériau ainsi que les réactions hétérogènes pouvant se produire en présence d’oxygène. Les conditions aux limites définis sont donc plus simples et mieux maitrisées car le caractère instationnaire de la flamme n’est pas pris en compte. Les schémas réactionnels se composent donc uniquement des réactions de pyrolyse excluant ainsi toutes réactions hétérogènes. Les gaz de pyrolyse sont assimilés à un gaz inerte. Les réactions intra-pores sont donc négligées et l’hypothèse de l’équilibre thermique locale entre les phases solides et le gaz environnant est assumée. La construction du modèle décomposition thermique des 2 types de matériaux suit une démarche de séparation des échelles. Les différents processus de transport de chaleur, de masses et de réactions chimiques sont étudiés séparément afin de s’affranchir des interactions et de valider séparément les modèles. Le modèle global est ensuite reconstruit afin de tenir compte de ces interactions. La dégradation thermique est d’abord étudiée à une échelle « 0D » afin de développer les schémas réactionnels. L’Analyse Thermogravimétrique est alors utilisée à cette étape ou des expériences sont conduites à différentes vitesses de chauffage sous atmosphère inerte. Les phénomènes de transports au sein de la particule solide peuvent être négligés, la température de la particule est homogène et sa dynamique est connue. A cette étape, seul le processus de pyrolyse est mis en jeu. Les différentes familles de réactions sont identifiées et décrites au sein du modèle par des réactions apparentes de type Arrhenius. Les constantes cinétiques sont calculées par des méthodes mathématiques inverses. L’influence de la vitesse de chauffage sur le processus de pyrolyse est analysée. Une simulation 2D est réalisée à 2 vitesses de chauffages afin d’analyser l’évolution des gradients thermiques et de pression au sein de la particule. Les phénomènes de transports de chaleur et de masses sont pris en compte à l’échelle du matériau et étudiés par des expériences réalisées en cône calorimètre. A cette échelle, les phénomènes de transports de masses et de chaleur sont calculés. Des simulations sont réalisées pour 2 flux de chaleurs. Les interactions entre les processus de transport de masses, de chaleur et de pyrolyse sont étudiées en analysant les échelles locales de temps et de longueurs afin d’identifier quels sont les phénomènes limitant sur le processus global de décomposition thermique
Composite materials occupy a critical position in industrial applications or more broadly in our daily life. Synthetic composites substitute metallic materials due to their lightweight properties to achieve identical mechanical performance. They are widely used in the fields of energy transportation and storage. Natural composites (wood) are also widely used, especially in construction industry. The disadvantage of these materials involves the disability in maintaining their mechanical characteristics in a fire scenario, and the study of their fire resistance is therefore a major issue. This thesis aims to develop a mathematical model of thermal decomposition of composite materials subjected to different heating conditions. The simulations of different cases of thermal decomposition make it possible to study the interactions among the processes of heat and mass transfer as well as chemical reactions within the solid. The developed 3D model describes the gas transport within the pores of materials at the Darcy scale. Thermal conductivity is formulated in a tensor form allowing the definition of heat transfer in three directions of the domain. For the two types of materials, a multi-step reaction scheme is defined to describe the pyrolysis process. The cone calorimeter tests used to validate the model were carried out under an inert atmosphere (Nitrogen) which makes it possible to eliminate the presence of flame on the material surface as well as the heterogeneous reactions which can occur in the presence of oxygen. Therefore, the defined boundary conditions are quite simple and well-controlled to characterize without considering the unsteady flame. Pyrolysis gasses are assembled into inert gas, therefore, the gas reactions in the pore are neglected and the local thermal equilibrium between the solid and gas phase is assumed. The implementation of this pyrolysis model follows a scale separation process with two types of materials. The different heat and mass transfer processes, as well as chemical reactions, are studied separately to avoid the interactions, then the model is reconstructed to take these interactions into account. The pyrolysis behavior is firstly studied at a "0D" scale to develop the part of chemical reactions. The thermogravimetric analysis (TGA) is used at this scale and related experiments are conducted at different heating rates under an inert atmosphere. At this scale, only the chemical reactions are involved with known kinetics, and the heat and mass transport within the solid can be neglected with homogeneous temperature distribution. The different chemical reactions are described with the Arrhenius-type equation. The kinetic parameters are calculated by the inverse modeling method. The influence of the heating rate on the pyrolysis process is analyzed and 2D simulations are conducted at two heating rates to analyze the evolution of thermal and pressure gradients within the solid. The phenomena of heat and mass transport are considered and studied by bench-scale experiments which are conducted in the cone calorimeter. The corresponding simulations are implemented under two heat flux. The interactions among the heat and mass transport as well as chemical reaction processes are studied by analyzing the local time and length scales to identify what are the dominant phenomena through the whole pyrolysis process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Evanno, Jean-Noël. „La loi de réforme de l'éducation de 1988 en Angleterre et au Pays de Galles : discours officiel et réalités“. Rennes 2, 1995. http://www.theses.fr/1995REN20018.

Der volle Inhalt der Quelle
Annotation:
En juillet 1988 est promulguée, en Angleterre et au Pays de Galles, une loi de réforme de l'éducation (The Education Reform Act) qui implique une profonde réorganisation du système éducatif et traduit une franche rupture idéologique avec le passé. Cette loi, à laquelle les conservateurs attachent un très haut prix, s'assortit d'un "discours officiel" omniprésent et sophistiqué destiné à la légitimer en invoquant plusieurs thèmes majeurs : l'accroissement du rôle et des attributions des "consommateurs" du système éducatif, l'extension de la liberté de choix, l'affermissement de la cohésion sociale, et de la qualité du service éducatif. Cette étude, qui procède par la confrontation de l'appareil rhétorique "officiel" - les postulats qui le fondent et les perspectives qu'il dessine - avec la réalité, débouche sur la découverte de priorités et d'ambitions dissimulées, dont apparaît souvent l'incompatibilité avec les objectifs affichés. Le discours se révèle donc un masque, destiné à offusquer les enjeux véritables d'une entreprise de reforme du service éducatif qui participe davantage, en réalité, d'une idéologie politique intransigeante que d'un projet pédagogique authentique et cohérent. Centralisation du pouvoir en matière éducative et mise à l'écart de la démocratie locale, main mise sur les contenus d'enseignement, contrôle des enseignants, intensification de la sélection, reproduction des privilèges et encouragement de l'individualisme : voilà, découverts sous le manteau du discours, quelques-uns des mobiles essentiels de la loi de réforme de l'éducation de 1988
The education reform act, which reached the statute book in July 1988, to be enforced in England and Wales, signalled a far-reaching reorganization of the education system and a sharp ideological break with the past. This act - an all-important act to the conservatives - was accompanied by ubiquitous, extensive and elaborate "official rhetoric" emphasizing several major explanatory themes: the increase in the role and influence of the "consumers" of the education system, the expansion of freedom of choice, the reinforcement of social cohesion and the improvement of the education system. By confronting the panoply of official rhetoric - the postulates and perspectives it contains - with realities, this work discloses concealed priorities and purposes which often prove incompatible with the stated objectives. The rhetoric, therefore, is shown to be a mask designed to conceal the true aims of the education reform act, which really partakes more of an uncompromising political ideology than a genuine, coherent scheme for education. Centralizing educational power while bypassing local democracy, taking over curricular contents, supervising teachers, stepping up selection, reproducing privilege, promoting individualism: these are some of the major motives of the 1988 education reform act as they appear beneath the cloak of the official rhetoric
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bertaud, Du Chazaud Guy. „La loi du 2 mai 1930 sur la protection des sites et son application en Aquitaine, bilan et réflexion méthodologique : 1930-1934“. Paris 4, 1986. http://www.theses.fr/1986PA040283.

Der volle Inhalt der Quelle
Annotation:
Le législateur de 1930, revenant sur un texte de 1906, a éprouvé le besoin d'organiser la protection des monuments naturels et des sites. Cette loi a été largement appliquée en Aquitaine : 550 sites y ont été protégés en 50 ans. Deux mesures prévues par la loi du 2 mai 1930 sont calquées sur les mesures de protection des monuments historiques : l'inscription et le classement. La troisième mesure, la zone de protection instituée autour d'un monument historique ou d'un site, n'a connu que quatre applications en Aquitaine. La zone de protection a été remplacée en 1983 par la zone de protection du patrimoine architectural et urbain. Cette étude régionale permet, à travers un examen exhaustif des réalités du terrain s'appuyant sur notre classification des sites en 12 catégories, de: -dégager la vraie richesse, -cerner les points faibles, -mesurer les atouts de la loi de 1930. L'image la plus classique du site protégé, qui correspond à la catégorie "paysage rural", est moins représentée qu'on ne le croit généralement, avec 11% des sites. Le caractère particulier de l'Aquitaine, sous les eaux jusqu'à l'ère tertiaire, se retrouve dans un grand nombre de protections: 18% ont pour pôle majeur l'eau (étang, côte atlantique ou rive fluviale). On note aussi une forte représentation des catégories centrées sur un intérêt patrimonial: châteaux et bourgs. Il apparaitrait logique de rattacher le service des sites à la direction du patrimoine du ministère de la culture et de développer un inventaire raisonné des sites. Enfin des actions de revalorisation de l'image des sites auprès des élus et des habitants s'imposent
The French parliament in 1930, standing from a text of 1906, has felt convenient to organize the preservation of naturel monuments and sites. This law has been extensively used in Aquitaine: 550 sites have been protected since 50 years. Two of the dispositions of this law are mere reproductions of the law on the preservation of historical monuments: the classification of sites. The third one, the protected zone around an historical monument or a site, has been only need 4 times in Aquitaine. The "protected zone" has been replaced, in 1983, by the "protected zone for architectural and rural patrimony". The regional study shows, though an exhaustive analysis of the field realities based on our 12 tiers classifications, the real impact of the 1930 legislation, and its limitations. The standard image of the protected site, the "rural landscape" counts only for 11% of sites. 18% have as main focus waters (lakes, rivers, ocean shores). Many sites are also centered on castles or villages. It would be logical to make the "service des sites" a section or the "direction du patrimoine" in the ministry of culture. A standardized inventory of sites would be also very useful. It would be good, finally, to promote the image of sites among the members of local councils and among the general population
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Pigeard, Alain. „La loi Jourdan-Delbrel du 19 fructidor an VI : application et évolution en France du 5 septembre 1798 au 4 juin 1814“. Dijon, 1997. http://www.theses.fr/1997DIJOD001.

Der volle Inhalt der Quelle
Annotation:
La Révolution française avait essayé différents mode de recrutement pour faire face aux coalitions liguées contre la France : aucun moyen ne s'était montré parfait, et, il faudra attendre un texte voté sous le Directoire. Cette loi, adoptée le 19 fructidor de l'an VI (5 septembre 1798), est également connue sous le nom de Jourdan-Delbrel. Elle prévoyait, qu'en cas de danger de la patrie, tous les citoyens devaient le service militaire, et que sa durée était alors illimitée ; les Français, âgés de 20 à 25 ans étaient divisés en 5 classes comprenant les hommes nés dans la même année. La loi du 28 floréal an X fit de la conscription, le moyen normal de recrutement de l'armée. En l'an XII, des dépots furent crées pour les rassembler les réfractaires ; en l'an XIII une loi instaura des amendes pour les parents des déserteurs. Le remplacement était autorisé mais son prix devint très élevé, surtout à partir de 1813. Des 1812, les sénatus-consultés permirent le retour de la conscription sur les classes antérieures ; cette mesure la rendit encore plus impopulaire. Depuis juillet 1806, un directeur général de la conscription en réglait les détails. Près de 2 300 000 Français seront appelés entre 1804 et 1815, mais un grand nombre ne rejoindra jamais son unité, soit à cause des motifs de réforme, soit pas refus. Elle sera supprimée à la Restauration en 1814 et rétablie en 1818 sous le nom de loi Gouvion-Saint-Cyr
This act dated on fructidor 19th in the year VI (september 5th 1798), upon general Jourdan's proposition based on the following principles : in case of danger in homeland, all the citizens had to do their military service, the length of which was unlimited. French young men aged 20 to 25 were all concerned. Replacement was authorised and from the year x, conscription became the recruiting system of armies. The opposition to that system concerned (tougher from 1812) and according to the regions, (the south west of France was more opposed to conscription). The law passed on fructidor 8th in the year XIII settles the drawing lots, the legal exemptions and authorizes replacement. A lot of draft evaders or rebellions people (about 1/4) refused to obey these military duties. So, "mobile columns" of soldiers and men at arms were set up to track those who refused to go. In spite of the laws of amnesty, the opposition always remained rather sharp. The number of conscripts between 1804 and 1813 was 2 432 335 men, a great number of whom never rejoined the depots. That law was abroged by the 1st restauration in 1814 and restored in 1818 in the name of Gouvion Saint-Cyr act
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Cai, Hongxue. „Loi de comportement en grandes déformations du muscle à fibres actives : Application à la mécanique du cœur humain et à sa croissance“. Chambéry, 1998. http://www.theses.fr/1998CHAMS022.

Der volle Inhalt der Quelle
Annotation:
Le fonctionnement du cœur et sa croissance résultent d'un processus d'interactions fortement couplées impliquant à la fois des phénomènes biochimiques, électriques, mécaniques et hémodynamiques. On s'intéresse dans cette recherche doctorale à l'effet des contraintes mécaniques sur la croissance du ventricule gauche (vg) fœtal humain. Des mesures cliniques (en utilisant l'échocardiographie bidimensionnelle) et anatomiques (en utilisant la technique de la lumière polarisée) ont été effectuées sur des fœtus humains pour acquérir un ensemble de données sur la cinématique du cœur humain et sur l'organisation des fibres lors du développement fœtal. L’approche mathématique mise au point dans cette recherche doctorale utilise la théorie de l'élasticité en grandes déformations et un nouveau modèle rhéologique capable de décrire de façon continue dans l'espace et dans le temps les propriétés actives du muscle en hyperelasticite. Les simulations effectuées permettent, durant la croissance fatale, de quantifier l'évolution de la géométrie, de la masse et de l'orientation des fibres musculaires du vg, mais aussi d'évaluer les contraintes et les déformations pariétales résiduelles lors du cycle cardiaque ainsi que la performance du vg (relation pression-volume) qui reste un index fondamental pour le clinicien lors du diagnostic.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Schutz, Aurélien. „Modélisation multivariée de champs texturaux : application à la classification d'images“. Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0356/document.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans cette thèse a pour objectif de proposer un algorithme de classification supervisée d’images texturées basée sur la modélisation multivariée de champs texturaux. Inspiré des algorithmes de classification dits à « Sac de Mots Visuels » (SMV), nous proposons une extension originale au cas des descripteurs paramétriques issus de la modélisation multivariée des coefficients des sous-bandes d’une décomposition en ondelettes. Différentes contributions majeures de cette thèse peuvent être mises en avant. La première concerne l’introduction d’une loi a priori intrinsèque à l’espace des descripteurs par la définition d’une loi gaussienne concentrée. Cette dernière étant caractérisée par un barycentre ¯_ et une varianceσ2, nous proposons un algorithme d’estimation de ces deux quantités. Nous proposons notamment une application au cas des modèles multivariés SIRV ( Spherically Invariant Random Vector ), en séparant le problème complexe d’estimationdu barycentre comme la résolution de deux problèmes d’estimation plus simples ( un sur la partie gaussienne et un surle multiplieur ). Afin de prendre en compte la diversité naturelle des images texturées ( contraste, orientation, . . . ), nousproposons une extension au cas des modèles de mélanges permettant ainsi de construire le dictionnaire d’apprentissage.Enfin, nous validons cet algorithme de classification sur diverses bases de données d’images texturées et montrons de bonnes performances de classification vis-à-vis d’autres algorithmes de la littérature
The prime objective of this thesis is to propose an unsupervised classification algorithm of textured images based on multivariate stochastic models. Inspired from classification algorithm named "Bag of Words" (BoW), we propose an original extension to parametric descriptors issued from the multivariate modeling of wavelet subband coefficients. Some major contributions of this thesis can be outlined. The first one concerns the introduction of an intrinsic prior on the parameter space by defining a Gaussian concentrated distribution. This latter being characterized by a centroid ¯_ and a variance _2,we propose an estimation algorithm for those two quantities. Next, we propose an application to the multivariate SIRV (Spherically Invariant Random Vector) model, by resolving the difficult centroid estimation problem as the solution of two simpler ones (one for the Gaussian part and one for the multiplier part). To handle with the intra-class diversity of texture images (scene enlightenment, orientation . . . ), we propose an extension to mixture models allowing the construction of the training dictionary. Finally, we validate this classification algorithm on various texture image databases and show interesting classification performances compared to other state-of-the-art algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Mabika, Bienvenu. „Analyse bayésienne des données de survie : Application à des essais cliniques en pharmacologie“. Rouen, 1999. http://www.theses.fr/1999ROUES100.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est composée de deux parties distinctes : la première relève des procédures bayésiennes des données de survie et la seconde la méthodologie d'application des procédures bayésiennes. Nous étudions dans la première partie les méthodes bayésiennes permettant de comparer deux distributions de survie de Weibull censurées. Les résultats sont présentés en utilisant l'hypothèse selon laquelle les paramètres de formes sont quelconques. Pour une classe de loi a priori convenablement choisie nous donnons les distributions a posteriori, les intervalles à plus fortes densités a posteriori (HPD) des paramètres d'intérêts nécessaires pour montrer soit la supériorité soit l'équivalence. Nous introduisons ensuite un estimateur de Bayes de la fonction de survie à un temps quelconque. Nous proposons et étudions un test bayésian pour l'équivalence de deux fonctions de survie dans le cas des modèles à taux de risques constant et non constant. Un algorithme utilisant la méthode de simulation de l'échantillonnage de Gibbs est donné pour résoudre ce problème de test. En outre, une étude prédictive est abordée pour interrompre l'étude de façon précoce. Les densités prédictives sont utilisées pour obtenir une règle d'arrêt dans le cas des analyses intermédiaires. Comme dans toute étude clinique, nous proposons deux approches de détermination du nombre de patients nécessaire en utilisant les critères usuels : l'une est basée sur la simulation des densités prédictives, l'autre sur les approximations normales des densités prédictives. Enfin, nous généralisons le modèle de Weibull par une approche bayésienne avec les variables explicatives qui est très proche du modèle semi-paramétrique de Cox. La seconde partie est consacrée aux exemples d'applications à des données d'essais cliniques pour comparer deux médicaments ou pour déterminer le nombre de patients nécessaire
Two distinct sections constitute this thesis : the first section deals with the Bayesian procedures of survival data and the second with the applying procedures of Bayesian methods. The methods are illustrated with some examples of a mortality study in cardiologic and cancer research where a new treatment is compared to a standard treatment. In the first section, we study the Bayesian framework allowing to compare two Weibull survival distributions with unequal shape parameters, in the case of right censored survival data obtained for two independent samples is considered. For a family of appropriate priors we give the posterior distributions and the highest posterior density intervals about relevant parameters allowing to search for a conclusion of clinical superiority of the treatment. We introduce a Bayesian estimator of the survival function. We propose and study a Bayesian testing for equivalence of two survival functions and an algorithm using Gibbs sampling allowed to resolve this test. Moreover the predictive distributions are used to obtain an early stopping rule in the case of interim analyses. On using some criteria of determination of number patient we propose two approaches. We generalize the Weibull model by a Bayesian approach with covariates, this approach is like to Cox model. The methods inference used there do appeal to Markov Chain Monte Carlo methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Bichet, Lionel. „Mécanismes de transports dans la fissuration des matériaux hétérogènes : application à la durée de vie d’exploitation des centrales nucléaires“. Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS001/document.

Der volle Inhalt der Quelle
Annotation:
Les propriétés du béton constituant les enceintes de confinement des centrales électronucléaires évoluent sous les effets de mécanismes de vieillissement résultant notamment de transferts couplés de chaleur et de masse au sein du matériau. Ces phénomènes peuvent être modélisés par des équations de transports moyennées : lois de Fick pour le transport d’espèces en solution et lois de Fourier pour la description de la diffusion thermique. Dans cette étude, les développements concernent la diffusion de la thermique dans un milieu hétérogène fissuré représentant un matériau cimentaire dégradé chimiquement. Le problème thermo-mécanique est traité à l'aide d'une approche multi-corps reliés par des lois d’interactions enrichies (zones cohésives). La diffusion thermique est écrite dans le formalisme cohésif-volumique en prenant en compte le couplage entre un état d'endommagement local de la zone cohésive et une conductivité homogénéisée. Afin d'optimiser les coûts de calculs, une étude est menée sur la dimension d'un volume élémentaire représentatif (VER). Pour cela, la méthode d'eigenerosion est étendue à la fissuration de milieux hétérogènes puis appliquée aux milieux cimentaires. La propagation de fissures sous chargement thermique est ensuite analysée dans des VERs de béton dégradés représentatifs des enceintes de confinement des centrales nucléaires après plusieurs années. Le vieillissement est modélisé par un taux de pré-dégradation initial entre le mortier et les granulats. Le développement de multi-fissures est relié au taux de pré-dégradation et la formation "d'écrans" à la diffusion de la thermique est mise en avant
During their confinement in a nuclear power plant, the mechanical properties of the constitutive materials of concrete change as a result of ageing. This is due to the transportation of chemical species at the microscopic level of the media. Firstly, this can be modelled with average equations. The Fick laws represent the evolution of chemical diffusion and the Fourier laws, the transportation of heat at a mesoscopic level. In this research, we will consider thermal evolution on a fractured media.This thermomechanical problem is solved with a staggered method. The mechanical contribution used an approach based on multi-bodies system linked with cohesive zone models. The thermal problem is based on the approximation of the heat transfer equation at the cohesive interface. This approach has been implemented and validated. The description of the heat trough the interface is composed with the definition of an homogenised conductivity and the local damage parameter. In order to optimize the computational cost with a good agreement of the crack propagation, a criterion is proposed for sizing a representative elementary volume (REV). The eigenerosion method is used, validated and extended to heterogeneous media. Two studies are carried out on the morphological properties on a cementious media. As a result of those studies, a minimal size for a REV is defined.Crack spread under thermal loads are investigated on a media representing the concrete of the containment of a nuclear power station. The ageing effect are taken into account as an initial damage between the mortar and the aggregates. These parameters are expressed in terms of rate of initial damage. A study is proposed for different values of this rate. As assumed, the development of multi-cracks is linked with the rate of initial damage and the creation of thermal border is proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Hérout, Benjamin. „Écoulement et transfert de chaleur turbulents sur parois rugueuses : application aux chambres de refroidissement des moteurs thermiques“. Toulouse 3, 2012. http://thesesups.ups-tlse.fr/3450/.

Der volle Inhalt der Quelle
Annotation:
Ce travail se place dans le cadre général de la modélisation du refroidissement des moteurs thermiques à combustion interne. L'étude présentée, à caractère expérimental et numérique, porte sur l'écoulement en conduite rugueuse avec transfert thermique. Cette étude est motivée par le besoin industriel d'améliorer la prédictivité des codes de calculs utilisés lors des phases de conception, avant la réalisation de prototypes mécaniques. La simulation de l'échange thermique dans les chambres de refroidissement est basée sur la modélisation de la turbulence. Des écarts sensibles ont été détectés lors du changement de version du code utilisé, ce qui a mis en évidence la sensibilité des lois de parois implémentées dans les codes commerciaux. Le choix de la géométrie cylindrique de l'écoulement est dicté par la volonté d'étudier l'écoulement et le transfert de chaleur sur paroi rugueuse par une approche expérimentale la plus simple possible, tout en conservant les caractéristiques de l'écoulement existant dans les chambres de refroidissement des moteurs thermiques (vitesse, température et état de surface). Les limites expérimentales constatées justifient l'approche par simulation numérique des grandes échelles, résolues jusqu'à la paroi. Les résultats expérimentaux obtenus montrent l'impact important de la rugosité sur la distribution de vitesse, et particulièrement dans la couche limite. L'échange thermique s'en trouve fortement modifié. Les résultats issus de la simulation des grandes échelles donnent accès aux valeurs physiques, dans la sous-couche visqueuse, inaccessible expérimentalement. L'ensemble des résultats apportés par l'étude expérimentale et numérique constitue une base de données pour l'optimisation des résultats fournis par des codes industriels. Ces résultats obtenus sur une géométrie simplifiée valident les méthodes et les techniques employées, qui pourront être appliquées ultérieurement à d'autres géométries
This research work takes place in the general context of the modeling of automotive engine cooling. The presented study synthetize experimental and numeric results obtained on a turbulent pipe flow, with heat transfer over rough wall. The motivation of this work is expressed by the industrial need to enhance the precision of CFD tools used during first conception phases, before to develop mechanical prototypes. The simulation of heat exchange in water jacket is based on turbulence modeling. Some dispersion has been observed between results obtained from a new version of the commercial CFD code. Theses variations clearly show the strong sensitivity of the wall-function depending on mathematical assumption or physical parameters. Near-wall measurements of flow and heat transfer over rough wall lead us to study a turbulent pipe flow. This classical geometry allow us to perform measurement closest to the wall, with flow characteristic similar to those encountered in water jacket (velocity, temperature and roughness). The experimental results are essential to determine the roughness effect on velocity distribution, particularly in for adapting logartmic law depending on roughness dimension. Heat transfer in also strongly increased due to the presence of small perturbations. The use of Large Eddy Simulation allows obtaining numerically the roughness effect in the viscous layer. This effect was not observed during the experiments due to optical limitations. All these results are used to establish a data-base to optimize the computation done with commercial CFD codes. These results obtained on a simplified geometry valid the methods and techniques used in this work. These ones could be developed to other flow geometry
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Fonvieille, Nadine. „Application dans la région Rhône-Alpes de la loi du 19 mai 1874 sur le travail des enfants et des filles mineures dans l'industrie“. Grenoble 2, 1993. http://www.theses.fr/1993GRE21030.

Der volle Inhalt der Quelle
Annotation:
Cette etude a pour but de mettre en evidence une loi sociale bien specifique. Celle du 19 mai 1874 sur le travail des enfants et des filles mineures dans l'industrie. Cette loi, qui n'est pas la premiere dans le domaine social (loi de 1841), merite une certaine attention, car elle va pleinement contribuer a la naissance d'un droit social moderne. Son application au sein d'une region fortement industrialisee est la pour en temoigner. Le travail des enfants est un comportement industriel fort repandu au dix neuvieme siecle, et les industries de la region rhone-alpes n'echappent pas a la regle. C'est pourquoi dans un premier temps, cette etude presente la situation de la region a la veille de la loi de 1874 en mettant l'accent sur la necessite d'une intervention legislative pour proteger les enfants, du milieu industriel. Ensuite est envisagee l'application de cette loi, sur le terrain, mais par un biais particulier : l'inspection du travail organisee pour la premiere fois de facon professionnelle. Le legislateur lui accorde un role preponderant. L'etude s'acheve sur les succes remportes par la loi. Succes qui ne peuvent pas cacher les facteurs de resistance qui subsistent encore
The law of may 19, 1874 which is not the first social one about this subject (law of 1841) deserves a certain attention; in fact it will fully contribute to the breakdown of a modern social legal system. Its implementation within a heavy industrialised region is a good example. Children at work was a very common industrial behaviour throughout the 19 century. Therefore the rhone-alpes region is not exception to the rule. Firstly this survey describes the situation in this region before passing the law of 1874 and emphasises how necessary end urgent a legal regulation was, in order to protect children at work in the industry. By then this law is going to be implemented de facto, however using the particular expedient of the factory inspectorate. In fact this law is at the root of the professional factory incorporate. The legislator was extremely confident in the succeed of theis new institution. The survey ends up with the succeeds achieved by this law. These succeeds illustrate a significant advance within the social field, but they are unable to conceal the still remaining resistance factors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Giet, Jean-Sébastien. „Processus stochastiques : application à l'équation de Navier-Stokes ; simulation de la loi de diffusions irrégulières ; vitesse de convergence du schéma d'Euler pour des fonctionnelles“. Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0109_GIET.pdf.

Der volle Inhalt der Quelle
Annotation:
La première partie de cette thèse est consacrée à l'élaboration d'une représentation probabiliste de la solution de l'équation de Navier-Stokes considérée dans un domaine [oméga] de R3, régulier et borné. A la solution qui représente la vitesse d'un fluide visqueux et incompressible dans le domaine est associé le tourbillon. Ce dernier sera interprété comme la densité d'un processus de branchement, les phénomènes aléatoires de branchements correspondant à des créations ou des destructions de masse du tourbillon. Dans la deuxième partie, nous considérons certaines E. D. S. Bidimensionnelles présentant localement des coefficients de dérivé et de diffusion de très grande amplitude. Nous proposons un schéma de simulation adapté à cette particularité. La méthode développée ici conduit à remplacer la simulation de l'E. D. S. Initiale, par la simulation de deux E. D. S. Unidimensionnelles à coefficients réguliers. Dans la troisième partie, nous étudions l'erreur commise en remplaçant une diffusion régulière par l'approximation donnée par le schéma d'Euler, dans l'espérance de différentes fonctionnelles de la trajectoire. Une majoration, établie dans le cas de l'intégrale d'une fonction mesurable et bornée de la trajectoire, permet de proposer une série d'applications dont une majoration de l'erreur dans l'approximation de la solution d'un problème de Gauchy par des méthodes probabilistes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Fauconnier, Grégoire. „La mise en oeuvre de l'article 55 de la loi "Solidarité et renouvellement urbains" (SRU) dans les Yvelines, entre application formelle et adaptation stratégique“. Thesis, Paris 10, 2019. https://bdr-parisnanterre-fr.faraway.parisnanterre.fr/theses/intranet/2019/2019PA100040/2019PA100040.pdf.

Der volle Inhalt der Quelle
Annotation:
Promulguée le 13 décembre 2000 la loi SRU imposait, par son article 55, un seuil minimal de 20% de logements sociaux à la plupart des communes situées dans les grandes agglomérations. En cela, elle avait pour vocation de contribuer au droit au logement et, surtout, de favoriser la « mixité sociale ». Fortement critiquée, maintes fois menacée, la loi SRU a finalement été renforcée en 2013 par l’élévation à 25% du seuil minimal de logements sociaux. Plus de quinze ans après son entrée en vigueur, la loi est entrée dans une phase de maturité rendant possible l’établissement d’un bilan circonstancié, objectif de cette thèse. L’étude s’attache à analyser les données quantitatives et qualitatives sur la construction de logements sociaux dans les communes déficitaires des Yvelines, le département comptant le plus grand nombre de communes déficitaires à l’échelle nationale. Ce faisant, il apparaît que, globalement, les communes déficitaires respectent la lettre de la loi – en construisant les logements sociaux exigés – mais contournent son esprit – en limitant la mixité sociale. En effet, les logements sociaux qu’elles réalisent présentent de nombreuses spécificités et, parallèlement, de nombreux logements privés continuent à être implantés, rendant inatteignable le taux exigé. Afin de comprendre les raisons de cette application partiale et partielle, cette thèse s’intéresse au jeu d’acteurs auquel donne lieu la loi SRU. Les enquêtes mettent alors en évidence que c’est le rejet toujours vivace du logement social sur le terrain qui grippe la mécanique prévue par le législateur et qui empêche au dispositif d’avoir les effets escomptés
Promulgated on December 13th 2000, the SRU law decreesed with its article 55 that there should be a 20% minimum limit of social housing in most of the communes located in big urban areas. Therein, it was designed to contribute to the right to housing and above all to promote « social mix ». Although strongly criticized, many times jeopardized, the SRU law was eventually reinforced in 2013 through the rise of the minimum limit up to 25% of social housing. More than 15 years after coming into force, the law entered a phase of development that allows a detailed and objective assessment of this thesis. This study focuses on the analysis of quantitative and qualitative datas on the construction of social housing in the non-law abiding communes of the Yvelines, the department with the highest number of non-law abiding communes on a national level. By doing so, it appears that overall, the non-law abiding communes respect the letter of the law- by building the required social housing - while getting round its spirit - by limiting social mix. Indeed, the social housing that they build have several specific features and at the same time, numerous private housing continue to be set up, making it impossible to reach the demanded percentage. So as to understand the reasons for this partial and biased implementation, it was necessary to study the interplay of stakeholders that the SRU law results in. This survey thus puts forward the fact that it is the everlasting rejection of social housing in the field that hinders the mechanism introduced by the legislator and prevents the SRU law from achieving its intended effect
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie