Siga este enlace para ver otros tipos de publicaciones sobre el tema: Prédiction de contact.

Tesis sobre el tema "Prédiction de contact"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 47 mejores tesis para su investigación sobre el tema "Prédiction de contact".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Parent, Marie-Océane. "Prédiction de la stabilité en contact rotor-stator dans les turboréacteurs d'avion". Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0004/document.

Texto completo
Resumen
L’objectif de ces travaux est de prédire la stabilité dynamique d’un moteur d’avion de type turbofan, lors de contacts légers entre l’extrémité des aubes et le carter en regard. Une voix d’amélioration des performances des turboréacteurs d’avion consiste, en effet, à réduire les jeux entre les extrémités des aubes en rotation et le carter. Réduction qui s’accompagne d’une augmentation des possibilités de contact entre ces parties tournantes et fixes pouvant conduire à des phénomènes vibratoires instables. La démarche proposée s’appuie sur un modèle hybride qui introduit de manière simplifiée une roue aubagée et un carter flexible à un modèle de ligne d’arbres. Une formulation dite 3D du contact a également été implémentée, elle intègre la cinématique des différents organes du modèle et introduit de manière précise la géométrie locale de la zone de contact. Le comportement du modèle lors de contacts aubes-carter est alors étudié en distinguant les analyses menées en supposant un contact permanent et celles autorisant l’intermittence des contacts. Les résultats obtenus mettent en évidence l’importance des couplages introduits dans l’apparition des phénomènes instables et la pertinence de la formulation 3D dans la prédiction de la stabilité du système
This work aims to predict the dynamic stability of a turbofan engine submitted to light contacts between blade tips and casing. Reducing the clearance between the rotating blades and the casing improves indeed the performances of turbomachines ; however, it also increases the possible contacts between rotating and stationary parts, which can cause unstable dynamic behavior. The approach is based on a hybrid model which introduces a simplified bladed wheel and a flexible casing to a rotor-shaft model. A 3D contact formulation has also been implemented ; it considers the model kinematic and introduces the local geometry of the contact area. The model behavior with blade-to-casing contacts is analyzed through two approaches : the first one assumes permanent contacts while the other one allows contact intermittence. The results highlight the importance of couplings in the outbreak of unstable phenomena and the relevance of the 3D contact formulation in predicting the stability of the system
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Legrand, Mathias. "Modèles de prédiction de l'interaction rotor/stator dans un moteur d'avion". Phd thesis, Ecole centrale de nantes - ECN, 2005. http://tel.archives-ouvertes.fr/tel-00011631.

Texto completo
Resumen
Ces travaux s'inscrivent dans le cadre d'un partenariat entre SNECMA (Société Nationale d'Etude et de Construction de Moteurs d'Avion), l'Equipe Structures et Simulations du laboratoire GeM à l'Ecole Centrale de Nantes et le Département de Vibrations et d'Acoustique de l'Université du Michigan, avec pour objectif le développement de modèles de prédiction d'interaction rotor/stator dans un moteur d'avion. En effet, afin de rester un acteur compétitif, un motoriste a un objectif principal : augmenter le rendement d'un moteur d'avion en accord avec les normes en vigueur. La minimisation du jeu entre l'extrémité des aubes des différents composants en rotation et le carter qui leur fait face est une réponse à cette contrainte. Malheureusement, la diminution de cette distance augmente sensiblement les possibilités de contact entre les deux parties. Les conséquences d'un tel phénomène pouvant être dramatiques pour le moteur, le bureau d'études doit concevoir des structures capables de résister à ces différentes sollicitations dynamiques : il est donc primordial de comprendre l'origine et l'action de ces forces de contact pour réduire de façon optimale le jeu entre les deux parties sans compromettre la sécurité des passagers. Dans cette étude, nous nous concentrons plus particulièrement sur l'interaction entre deux modes de vibration à diamètres, caractéristiques des structures à symétrie axiale, pendant laquelle les structures se touchent légèrement pour atteindre des régimes permanents potentiellement dangereux. A cet effet, trois modèles de complexité croissante sont proposés et analysés, en plus de deux méthodes de résolution complémentaires développées dans les domaines fréquentiel et temporel. Ces trois modèles prédisent une vitesse de rotation critique au-dessus de laquelle, sous certaines conditions qui restent difficiles à déterminer, les amplitudes de vibrations deviennent importantes. Ils ont aussi permis une meilleure compréhension du phénomène d'interaction modale et de ses caractéristiques physiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Degré, Fabien. "Prédiction numérique des caractéristiques d'une pièce traitée par galetage : application au secteur du décolletage". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00729061.

Texto completo
Resumen
Le galetage est une opération de finition et de traitement mécanique de surface, particulièrement utilisée dans le secteur du décolletage. Afin de valoriser pleinement l'opération, les industriels ont besoin d'estimer les caractéristiques des pièces traitées; il s'agit de la rugosité, de la dureté superficielle et de la distribution des contraintes résiduelles. Pour répondre à cette problématique, différentes modélisations ont été construites par le passé. Les deux plus abouties s'appuient principalement sur l'hypothèse d'équivalence entre la sollicitation de galetage et la sollicitation d'indentation. Dans ce rapport, une nouvelle approche de la modélisation de l'opération de galetage est proposée. Elle repose sur une étude fine des phénomènes physiques mis en jeu par la sollicitation de galetage. Dans un premier temps, le problème mécanique posé par la modélisation de l'opération de galetage est résolu sous l'hypothèse de comportement purement élastique. Dans ce cas, l'équivalence entre la sollicitation de galetage et la sollicitation d'indentation est bien re-démontrée. Dans un second temps, l'effet de la plasticité sur cette équivalence est étudié. Un phénomène de formation et écoulement de bourrelet, particulièrement influent sur la sollicitation de galetage, est alors mis en évidence. Ce constat invalide totalement l'hypothèse d'équivalence galetage - indentation formulée précédemment. Ainsi, il est démontré que pour modéliser fidèlement les phénomènes induits par l'opération, il est indispensable de considérer le contact roulant libre du galet sur un solide en trois dimensions. En tirant partie de cette étude, une nouvelle méthode de modélisation de l'opération de galetage par la technique des Éléments Finis est alors proposée. Une attention particulière est portée sur la définition d'une méthode de caractérisation mécanique préalable du matériau, notamment adaptée à la problématique par l'utilisation d'un essai de compression spécifique. En ce qui concerne l'état géométrique de la surface, les résultats numériques sont en bon accord avec les mesures expérimentales. De plus, pour les grandeurs mécaniques (dureté superficielle et contraintes résiduelles), une correspondance qualitative est obtenue. Finalement, il apparaît que ce modèle apporte une contribution notable à la compréhension de l'opération, ouvrant la voie à une modélisation plus fidèle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Rousseau, Clément. "Prédiction par transfert inverse d'un champ de conductance thermique de contact dans un mur de réacteur métallurgique". Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1636.

Texto completo
Resumen
Cette étude porte sur l'estimation par méthode inverse d'un champ de conductance thermique de contact entre deux matériaux formant la paroi d'un réacteur métallurgique. Dans le cas du montage de réacteur métallurgique, il est essentiel de venir déterminer la conductance thermique de contact dans l'assemblage. Cela permet de venir identifier et corriger les défauts de contact avant la mise en fonctionnement du réacteur métallurgique.Cette étude utilise les méthodes inverses, particulièrement la méthode du gradient conjugué avec un problème adjoint, pour venir réaliser cette estimation. Dans cette étude, la méthode a été validée à l'aide de tests numériques représentant un diagnostic du contact thermique entre la paroi de carbone et la paroi d'acier du réacteur métallurgique avec différentes conductances thermiques de contact. Suite [i.e. à] cette validation, un test avec un bruit de mesure sur les températures de référence de la méthode inverse a été réalisé. Il a été démontré que, pour les tests réalisés sans bruit de mesure, l'erreur d'estimation générale est inférieure à 2%. Pour le test avec un bruit de mesure de «0, 025 K le défaut de contact a été localisé à la bonne position, en revanche l'erreur d'estimation est de 39%. Dans un second temps, des tests supplémentaires ont été réalisés pour observer l'évolution de l'erreur d'estimation en fonction de deux nombres sans dimension, le rapport de conductivité thermique et le nombre de Biot. Cela a permis de conclure qu'il faut avoir simultanément un rapport de conductivité thermique supérieur à 1 et un nombre de Biot supérieur à 0,05 pour obtenir une estimation précise dans les cas étudiés. La méthode permet de venir estimer la conductance thermique de contact, d'une manière novatrice et non intrusive, dans un mur de réacteur métallurgique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Caignot, Alain. "Prédiction par essais virtuels de l'amortissement dans les structures spatiales". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00422291.

Texto completo
Resumen
Dans un contexte de réduction importante des coûts dans le domaine des lanceurs spatiaux, il devient primordial de contrôler l'ensemble des facteurs dimensionnants dès la conception. La diminution de la masse est compensée par une augmentation de la raideur et il en résulte une diminution de l'amortissement, qui est le paramètre qui conditionne les niveaux de la réponse dynamique. A l'heure actuelle, l'amortissement est pris en compte de manière globale et le plus souvent identifié sur la structure finale. L'objectif de ce travail est de proposer une démarche de prédiction de l'amortissement dans les lanceurs spatiaux afin de prendre celui-ci en compte dès la phase de conception. Cette démarche passe par la mise en place d'une base de données des coefficients d'amortissement en fonction du type de sollicitation, du niveau de chargement, de la géométrie... L'amortissement étant bien connu pour les matériaux qui composent le lanceur, l'enjeu est la détermination de l'amortissement dans les liaisons, où les dissipations peuvent être très importantes. Les démarches expérimentales étant coûteuses et complexes à mettre en place, le travail s'est tourné vers une approche numérique, basée sur un calcul éléments finis des liaisons. Ce type de simulations est actuellement hors de portée des codes de calculs industriels standards et a nécessité le développement d'un code de calcul parallèle spécifique, basé sur la méthode LATIN. La robustesse de l'outil numérique a été étudiée et les résultats ont été validés à partir de valeurs obtenues expérimentalement lors d'une étude précédente. Enfin, le calcul de différentes liaisons constitutives du lanceur a été abordé ainsi que la méthodologie pour intégrer ces résultats dans le processus de dimensionnement d'Ariane.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Caignot, Alain. "Prédiction par essais virtuels de l'amortissement dans les structures spatiales". Phd thesis, Cachan, Ecole normale supérieure, 2009. http://www.theses.fr/2009DENS0018.

Texto completo
Resumen
Dans un contexte de réduction importante des coûts dans le domaine des lanceurs spatiaux, il devient primordial de contrôler l'ensemble des facteurs dimensionnants dès la conception. La diminution de la masse est compensée par une augmentation de la raideur et il en résulte une diminution de l'amortissement, qui est le paramètre qui conditionne les niveaux de la réponse dynamique. A l'heure actuelle, l'amortissement est pris en compte de manière globale et le plus souvent identifié sur la structure finale. L'objectif de ce travail est de proposer une démarche de prédiction de l'amortissement dans les lanceurs spatiaux afin de prendre celui-ci en compte dès la phase de conception. Cette démarche passe par la mise en place d'une base de données des coefficients d'amortissement en fonction du type de sollicitation, du niveau de chargement, de la géométrie. . . L'amortissement étant bien connu pour les matériaux qui composent le lanceur, l'enjeu est la détermination de l'amortissement dans les liaisons, où les dissipations peuvent être très importantes. Les démarches expérimentales étant coûteuses et complexes à mettre en place, le travail s'est tourné vers une approche numérique, basée sur un calcul éléments finis des liaisons. Ce type de simulations est actuellement hors de portée des codes de calculs industriels standards et a nécessité le développement d'un code de calcul parallèle spécifique, basé sur la méthode LATIN. La robustesse de l'outil numérique a été étudiée et les résultats ont été validés à partir de valeurs obtenues expérimentalement lors d'une étude précédente. Enfin, le calcul de différentes liaisons constitutives du lanceur a été abordé ainsi que la méthodologie pour intégrer ces résultats dans le processus de dimensionnement d'Ariane
In the context of a significant cost reduction in the design of space launchers, it is on crucial to control all the factors involved in the dimensionning process. The decrease in mass is compensated by an increase in stiffness and results in a decrease of damping, which is the parameter that determines the level of the dynamic response. At the present time, the damping is taken into account in a global model and most often identified on the final structure. The objective of this work is to improve the launcher design process by introducing the capability to predict damping a priori. In order to do that, the idea is to develop a database containing the dissipation due to the materials and the dissipation relative to the joints in the launcher for each type and each level of solicitation. . . Damping in materials is relatively well-known in the case of the composites which make up the launcher. Therefore, the challenge is the prediction of the damping in the joints where the dissipations can be very important. The experimental approaches are expensive and complex to implement, that is why this work is based on a finite element computation of the joints. This type of simulations is beyond the reach of standard industrial computing codes ans has needed the development of specific parallel computationnal code based on the LATIN method. The robustness of the numerical tool has been studied and its results validated from experimental values obtained in a previous study. Finally, the computation of different joints of the launcher has been done as well as the methodology for integrating these results in the design process of Ariane
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Del, Bufalo Aurelia. "Effets des sensibilisants sur la synthèse de la prostaglandine E2 : Mécanismes et intérêt dans la prédiction de l’allergie de contact". Thesis, Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0003/document.

Texto completo
Resumen
Les sensibilisants de contact sont des molécules réactives électrophiles qui ont la capacité de modifier des protéines de la peau pour former un antigène. Au delà de ce mécanisme d'hapténisation, le signal de danger induit par les sensibilisants conduisant à l'activation des cellules dendritiques (DC) est un élément déterminant dans l'induction de cellules T spécifiques de l'haptène. Dans le contexte du 7ième amendement à la directive cosmétique européenne, la mise en place d'une batterie de tests in vitro permettant de prédire le potentiel sensibilisant de molécules est indispensable pour l'industrie cosmétique. Tandis que la plupart des études in vitro étudient les signaux de danger induits par les sensibilisants dans des modèles homéostasiques, nous nous sommes intéressés à l'effet des sensibilisants sur la mise en place d'une réponse inflammatoire. Lorsque la lignée U937 est différenciée avec du PMA et stimulée avec du LPS, les facteurs de transcription NF-κB et Nrf2 sont activés et l'acide arachidonique (AA) est métabolisé au travers de la cascade cPLA2 / COX-2. L'ensemble de ces voies activées conduit à la production par les U937 d'un grand nombre de médiateurs inflammatoires (IL-1β, TNF-α, IL-6, IL-10, IL-8, PGE2, PGD2, TxB2). Dans ce modèle, nous avons analysé l'effet de 6 sensibilisants de potentiels variés (DNCB, PPD, HQ, PG, CIN, EUG) et montré que de façon inattendue, tous les sensibilisants étudiés diminuent significativement et de façon spécifique la production de tous les prostanoïdes et en particulier de PGE2 induite par PMA/LPS. Nous avons de plus démontré que selon les sensibilisants, les cibles de cette inhibition au sein de la cascade métabolique de l'AA diffèrent, même si elles se focalisent la plupart du temps (sauf pour le DNCB) sur l'enzyme COX-2 (inhibition de son expression et/ou de son activité). Pour le DNCB, le mécanisme d'inhibition semble plutôt impliquer sa capacité à réagir fortement avec les groupements résidus thiols, ce qui se traduit en particulier par la déplétion du GSH intracellulaire et engendrerait l'inhibition des synthases dépendantes du GSH pour leurs activités. En parallèle de cette étude mécanistique, nous avons appréhendé la problématique du point de vue statistique et vérifié sur un set plus important et diversifié de molécules (160 molécules) que le paramètre « inhibition de PGE2 » pouvait être un bon test de prédiction de l'HSRC. L'étude statistique a permis de déterminer le modèle prédictif du test PGE2 et de mettre en évidence de bonnes performances (78%) par rapport aux prédictions du LLNA. Au-delà, une certaine complémentarité du test PGE2 avec d'autres tests in vitro (MUSST, Nrf2-HTS) a pu être mise en évidence. En conclusion, au travers de cette étude, nous avons pu mettre en évidence de nouvelles propriétés biochimiques des sensibilisants. Même si la signification biologique de la diminution de PGE2 par les sensibilisants de contact demeure complexe d'interprétation, ce paramètre a permis le développement d'un test qui prédit avec de bonnes performances le caractère sensibilisant de molécules et dont la position au sein d'une batterie prédictive d'évaluation de l'allergie de contact reste à être précisée
Contact sensitizers are defined as reactive molecules (electrophilic) which have the ability to modify skin proteins to form an antigen (hapten). In addition to the haptenation mechanism, danger signals, leading to the activation of dendritic cells, are described to be crucial for the effective induction of an hapten-specific T cell immune response. In the context of the 7th amendment to the Cosmetic Directive, the cosmetic industry is concerned by the challenge of finding non-animal approaches to assess the sensitizing potential of chemicals. While danger signals induced by sensitizers in steady-state conditions have already been analyzed, we chose to investigate the impact of sensitizers on the course of an inflammatory response. For this purpose we used the U937 cell line differentiated with PMA and activated with LPS. In these conditions, cells produce a large amount of inflammatory mediators (IL-β, TNF-α, IL-6, IL-10, IL-8, PGE2, PGD2, TxB2) through the activation of pathways leading to the activation of the transcription factors NF-κB and Nrf2 and through AA metabolism by the cPLA2/COX-2 cascade. Interestingly, we showed that 6 contact sensitizers with various potential (DNCB, PPD, HQ, PG, CIN, EUG) significally and specifically decrease the production of prostanoïds and in particular of PGE2 induced by PMA/LPS. We further demonstrated that there is no unique inhibition profile of the sensitizers even if the majority (except for DNCB) of the effects applies on COX-2 (i.e. inhibition of the expression and/or activity). For DNCB, inhibition mechanism appears to be dependant of its capacity to react with thiols residues and in particular to deplete intracellular glutathione possibly leading to the inactivation of the PG-synthases. In parallel, we assess a statistical analysis on 160 molecules that allow us to define the test parameters (a molecule is a sensitizer if the PGE2 inhibition at 24h is more than 60%) and to calculate the test performance toward LLNA (78%). Moreover we demonstrated that the PGE2 test could be complementary to other already existing in vitro tests like MUSST or Nrf2-HTS. In summary, we add here a new insight into the multiple biochemical effects described so far for sensitizers. Even if the underlying biological relevance remains unclear, the parameter “PGE2 inhibition” is good test for skin sensitization evaluation. Further studies will precise how this parameter could be implemented into an alternative testing strategy for the evaluation of skin sensitization
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Del, Bufalo Aurelia. "Effets des sensibilisants sur la synthèse de la prostaglandine E2 : Mécanismes et intérêt dans la prédiction de l'allergie de contact". Phd thesis, AgroParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-01016611.

Texto completo
Resumen
Les sensibilisants de contact sont des molécules réactives électrophiles qui ont la capacité de modifier des protéines de la peau pour former un antigène. Au delà de ce mécanisme d'hapténisation, le signal de danger induit par les sensibilisants conduisant à l'activation des cellules dendritiques (DC) est un élément déterminant dans l'induction de cellules T spécifiques de l'haptène. Dans le contexte du 7ième amendement à la directive cosmétique européenne, la mise en place d'une batterie de tests in vitro permettant de prédire le potentiel sensibilisant de molécules est indispensable pour l'industrie cosmétique. Tandis que la plupart des études in vitro étudient les signaux de danger induits par les sensibilisants dans des modèles homéostasiques, nous nous sommes intéressés à l'effet des sensibilisants sur la mise en place d'une réponse inflammatoire. Lorsque la lignée U937 est différenciée avec du PMA et stimulée avec du LPS, les facteurs de transcription NF-κB et Nrf2 sont activés et l'acide arachidonique (AA) est métabolisé au travers de la cascade cPLA2 / COX-2. L'ensemble de ces voies activées conduit à la production par les U937 d'un grand nombre de médiateurs inflammatoires (IL-1β, TNF-α, IL-6, IL-10, IL-8, PGE2, PGD2, TxB2). Dans ce modèle, nous avons analysé l'effet de 6 sensibilisants de potentiels variés (DNCB, PPD, HQ, PG, CIN, EUG) et montré que de façon inattendue, tous les sensibilisants étudiés diminuent significativement et de façon spécifique la production de tous les prostanoïdes et en particulier de PGE2 induite par PMA/LPS. Nous avons de plus démontré que selon les sensibilisants, les cibles de cette inhibition au sein de la cascade métabolique de l'AA diffèrent, même si elles se focalisent la plupart du temps (sauf pour le DNCB) sur l'enzyme COX-2 (inhibition de son expression et/ou de son activité). Pour le DNCB, le mécanisme d'inhibition semble plutôt impliquer sa capacité à réagir fortement avec les groupements résidus thiols, ce qui se traduit en particulier par la déplétion du GSH intracellulaire et engendrerait l'inhibition des synthases dépendantes du GSH pour leurs activités. En parallèle de cette étude mécanistique, nous avons appréhendé la problématique du point de vue statistique et vérifié sur un set plus important et diversifié de molécules (160 molécules) que le paramètre " inhibition de PGE2 " pouvait être un bon test de prédiction de l'HSRC. L'étude statistique a permis de déterminer le modèle prédictif du test PGE2 et de mettre en évidence de bonnes performances (78%) par rapport aux prédictions du LLNA. Au-delà, une certaine complémentarité du test PGE2 avec d'autres tests in vitro (MUSST, Nrf2-HTS) a pu être mise en évidence. En conclusion, au travers de cette étude, nous avons pu mettre en évidence de nouvelles propriétés biochimiques des sensibilisants. Même si la signification biologique de la diminution de PGE2 par les sensibilisants de contact demeure complexe d'interprétation, ce paramètre a permis le développement d'un test qui prédit avec de bonnes performances le caractère sensibilisant de molécules et dont la position au sein d'une batterie prédictive d'évaluation de l'allergie de contact reste à être précisée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Chauvineau, Guillaume. "Modélisation de la dynamique des boîtes de vitesses automobiles soumises à des sollicitations acycliques : applications à la prédiction du bruit de grenaille et validation expérimentale". Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0022.

Texto completo
Resumen
La boite de vitesses est un des principaux organes d’une automobile et son développement est complexe. De nombreuses contraintes doivent être prises en compte et notamment son comportement acoustique et vibratoire. Cet aspect de la conception est de nos jours assez mal maitrisé et les nuisances acoustiques des boites de vitesses, telle que le bruit de grenaille, sont bien souvent découvertes tardivement. L’objectif de ces travaux était le développement d’un modèle numérique de dynamique des engrenages applicable aux boites de vitesses et permettant de prédire les conditions d’apparition du bruit de grenaille. La modélisation proposée dans cette thèse repose sur une association originale de différentes modélisations et est applicable à la grande majorité des boites de vitesses. Les éléments flexibles tels que les arbres et les carters sont modélisés par la méthode des éléments-finis. Un modèle d’engrenage basé sur le modèle de contact de Kelvin-Voigt est développé. Ce dernier permet la prise en compte des pertes de contact et des chocs sur les flancs avants et arrières. Pour compléter la modélisation, des modèles de pertes mécaniques sont implémentés afin de prendre en compte l’influence des roulements, des paliers lisses, des synchroniseurs et du barbotage des pignons dans l’huile. Le modèle développé, couplé à un indicateur de bruit de grenaille, permet de réaliser des études de sensibilités afin d’identifier les paramètres influents sur le bruit de grenaille mais aussi de comparer les comportements vibratoires de différentes configurations. Pour finir, une campagne d’essais sur une boite de vitesse industrielle est réalisée et des résultats de simulations lui sont confrontés
The gearbox is an important component of an automobile and its development is complex. Numerous constraints must be taken into account, particularly its noise and vibration behavior. This aspect of the conception is nowadays poorly mastered and the noise pollution of gearboxes, such as the rattle noise, are often discovered late. The aim of this work was the development of a numerical model of gear dynamics adapted to gearboxes’ modelling and allowing to predict the conditions of gear rattle noise appearance. The model proposed in this thesis is based on an original combination of different models and is applicable to the vast majority of gearboxes. Flexible components, such as shafts and housings are modeled by the finite element method. A gear model based on Kelvin-Voigt contact model is developed. It allows to take into account the contact losses and the back side contacts. To complete this model, mechanical loss models are implemented in order to take into account the influence of the bearings, plain bearings, synchronizers and gears’ immersion in oil. This model coupled with a noise indicator allows for sensitivity analyzes to identify influential parameters on the rattle noise but also to compare the dynamic behavior of different configurations. Finally, a test campaign on an industrial gerbox is conducted and simulation results are confronted to measurements
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Belloula, Amar. "Contribution à l’étude de la prédiction de la durée de vie en fretting-fatigue : application à un contact acier-alliage d’aluminium". Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10029/document.

Texto completo
Resumen
Le but de cette étude est la prédiction de la durée de vie à l'initiation de la fissure d'un contact acier/aluminium sous la sollicitation de fretting fatigue. La prédiction des durées de vie a été déterminée à l'amorçage des fissures en fonction des différents chargements appliqués. Un dispositif expérimental adapté sur un banc d'essai multiaxial de fatigue a été mis au point. Des essais ont été réalisés sur un alliage d’aluminium de la série 6082T6. Les résultats obtenus montrent un abattement de la durée de vie par rapport à la fatigue classique. La modélisation par éléments finis a été menée en utilisant un code de calcul Abaqus. Les champs de contraintes et de déformations identifiés ont été utilisés sur différents critères de fatigue multiaxiale basés sur les plans critiques. Les résultats de la prédiction donne une sous estimation de la durée de vie en fretting fatigue. Ceci est dû aux forts gradients présents dans la zone de contact. La prédiction a été améliorée par couplage d’une méthode de champs moyens avec les critères de fatigue multiaxiale. Les estimations obtenues présentent une bonne corrélation avec les résultats expérimentaux. Néanmoins, la taille de la zone d'élaboration optimale semble dépendre du critère de fatigue multiaxiale utilisé et des conditions de chargement appliquées. Cette zone ne semble pas être liée directement avec la microstructure pour le matériau étudié.Dans une structure les sollicitations sont variables. La démarche ci-dessus a été couplée avec deux lois d'endommagement: loi de Miner et loi dite de la contrainte endommagée pour la prédiction avec des chargements par blocs. Les prédictions obtenues sont satisfaisantes
The purpose of this study is to predict fretting fatigue crack nucleation of a mono contact steel/aluminum at different applied loads.An experimental device was first designed and adapted on a multiaxial fatigue apparatus. Tests were conducted aluminum alloy at constant amplitude loading under both different load levels and load ratios. As expected, the fretting fatigue life was found lower compared to uniaxial fatigue under the same loading conditions. Finite element analysis was conducted using \textit{Abaqus} software. The computed stress and strain fields were used to estimate the parameters of different multiaxial fatigue criteria based on the critical plane approach. When using stress and strain values corresponding to the material point exhibiting the maximum value of the considered parameter, we have found that, whatever the multiaxial fatigue parameter, conservative fatigue life estimates due to the severe gradients in the contact zone. An averaging method of the mechanical quantities over a given reference volume was then used to attenuate these gradients effects. The estimates show a good correlation with experimental results. However, the size of the reference volume depends on both the multiaxial fatigue criteria and on loading conditions applied. So that it could not be directly linked to the grain size for the material studied. Finally, we made an attempt to extend these criteria and the developed method to variable loadings. Fretting fatigue tests using two and four blocks loadings were performed and the previous criteria were coupled with two damage laws. The estimates we have obtained seems very promising
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Filali, Oussama. "Approche multi physique du contact frottant en grande déformation plastique : prédiction numérique du grippage d'alliages d'aluminium en mise en forme à froid". Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0035.

Texto completo
Resumen
La thèse propose une nouvelle approche pour prédire le défaut de grippage rencontré lors de la mise en forme des alliages d’aluminium à froid. De nombreuses études expérimentales montrent que ce défaut de grippage est fortement lié aux conditions de contact et de frottement, et est notamment fonction de la rugosité des outils de fabrication. Les modèles permettant de prédire l’apparition de ce défaut sont rares et reposent généralement sur des observables indirects, tel que les champs de pression ou de température, sans prendre explicitement en compte l’influence des facteurs de premier ordre que sont la lubrification et l’état de surface des matériaux en contact. La méthodologie proposée de nos travaux repose sur l’hypothèse que le défaut apparait lorsque la matière de la pièce au voisinage de sa surface de contact atteint un niveau d’endommagement critique. Toutefois, dans une étude précédente, il a été montré que les modèles d’endommagement reposant exclusivement sur la pression hydrostatique, tels que les modèles GTN ou de Lemaitre, n’étaient capable de prédire l’endommagement qu’à condition de modéliser la rugosité des surfaces. Cela conduit à des simulations numériques multi-échelles très couteuses en temps de calcul et incompatibles avec la modélisation de procédés industriels réels. Pour contourner cette difficulté, la présente étude propose d’utiliser des modèles d’endommagement prenant en compte les effets de cisaillement générés par le contact frottant. L’influence de la rugosité repose alors sur un choix pertinent de la loi de frottement. Dans un premier temps, un chapitre bibliographique traite des modèles d’endommagement. Une attention particulière est portée aux modèles utilisant le paramètre de Lode afin de prendre en compte l’effet des contraintes de cisaillement sur l’évolution des variables d’endommagement. Dans un second temps une revue bibliographique des modèles de frottement et de lubrification est présentée. L’étude met notamment en avant les modèles reposant sur une approche mésoscopique de la lubrification, avec la modélisation de l’écrasement des rugosités lors du contact frottant. A l’issue de ces chapitres, le modèle d’endommagement développé de L. Xue et un modèle de lubrification prenant explicitement en compte la valeur des rugosités des surfaces sont utilisés pour prédire le grippage dans différentes configurations de contact. Dans un premier temps cette méthodologie numérique est appliquée à l’étude du procédé d’étirage plan de plaques en alliage d’aluminium 6082-T4. Puis la méthodologie est appliquée à un contact pion/plan sur des plaques en alliage 6082-T6. Enfin un procédé de filage avant de lopins cylindriques est étudiés avec les mêmes outils numériques. Ces différentes configurations sont testées avec ou sans lubrifiant et avec des outils ayant différentes valeurs de rugosités. Les résultats montrent que la procédure proposée permet dans la majorité des cas testés de prédire l’apparition du défaut, que ce soit dans des configurations avec ou sans lubrifiant. Les prédictions sont néanmoins optimistes, les distances de glissement avant l’apparition du grippage numérique étant généralement supérieure aux distances mesurées expérimentalement. Les résultats sont toutefois prometteurs et un certain nombre de perspectives sont présentées afin d’améliorer la précision de la méthodologie proposée
The thesis proposes a new approach to predict the galling defect encountered during cold forming of aluminum alloys. Numerous experimental studies show that this defect is strongly linked to the conditions of contact and friction and is a function of the roughness of the manufacturing tools. Models to predict the appearance of this defect are rare and are generally based on indirect observables, such as pressure or temperature fields, without explicitly taking into account the influence of first-order factors such as lubrication and 'surface condition of the materials in contact. The proposed methodology of our work assumes that the defect appears when the material of the part near its contact surface reaches a critical level of damage. However, in a previous study, it was shown that damage models based exclusively on hydrostatic pressure, such as GTN or Lemaitre models, were only able to predict damage if they model roughness. surfaces. This leads to multi-scale numerical simulations which are very costly in terms of computation time and incompatible with the modeling of real industrial processes. To get around this difficulty, the present study proposes to use damage models considering the shear effects generated by the friction contact. The influence of roughness is then based on a relevant choice of the friction law. First, a bibliographical chapter deals with damage models. Particular attention is paid to models using the Lode parameter to consider the effect of shear stresses on the evolution of damage variables. Secondly, a bibliographical review of friction and lubrication models is presented. The study notably highlights models based on a mesoscopic approach to lubrication, with the modeling of the crushing of roughness during rubbing contact. At the end of these chapters, the damage model developed by L. Xue and a lubrication model explicitly considering the value of surface roughness is used to predict seizure in different contact configurations. Initially, this numerical methodology is applied to the study of the flat drawing process of 6082-T4 aluminum alloy plates. Then the methodology is applied to a pion / plane contact on 6082-T6 alloy plates. Finally, a process for spinning before cylindrical slips is studied with the same digital tools. These different configurations are tested with or without lubricant and with tools having different roughness values. The results show that the proposed procedure allows in most of the cases tested to predict the appearance of the defect, whether in configurations with or without lubricant. The predictions are nevertheless optimistic, the slip distances before the onset of digital seizure being generally greater than the distances measured experimentally. The results are however promising, and several perspectives are presented to improve the precision of the proposed methodology
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Belaid, Abedessalem. "Modélisation tridimensionnelle du comportement mécanique de la garniture de forage dans les puits à trajectoires complexes : application à la prédiction des frottements garniture-puits". Paris, ENMP, 2005. http://www.theses.fr/2005ENMP1323.

Texto completo
Resumen
Réussir le forage d’un puits pétrolier le plus rapidement possible et à moindre coût est devenu un défi continu pour les professionnels du secteur. Pour relever ce défi, un bon dimensionnement des installations de forage s’impose. La meilleure prédiction des pertes liées aux frottements entre la garniture de forage et les parois du puits, notamment pour les puits à trajectoires fortement déviées, est un atout majeur pour ce dimensionnement. Les modèles usuels de prédiction des frottements montrent certaines insuffisances lorsque la trajectoire du puits se complexifie. Un nouveau modèle de calcul de frottements dans les puits de forage à trajectoires complexes a été développé et validé. Ce modèle utilise une méthode tridimensionnelle de reconstitution de la trajectoire intégrant à la fois la courbure et la torsion géométrique. Contrairement aux modèles classiques, qui supposent simplement que la garniture repose par gravité sur la paroi basse du trou de forage et qui négligent souvent la rigidité des tiges, le nouveau modèle rigide calcule la vraie déformée de la garniture de forage à l’intérieur du trou via un algorithme itératif de contact unilatéral. En outre, pour un gain important du temps de calcul, le modèle se base sur une intégration numérique directe des équations d’équilibre local sans avoir recours à la méthode des éléments finis. La comparaison avec un modèle couramment utilisé dans l’industrie de forage, appelé modèle LISSE, a été effectuée sur plusieurs puits réels et théoriques. Il ressort de cette comparaison que le nouveau modèle vient palier plusieurs faiblesses du modèle LISSE dans le cas des trajectoires à géométrie complexe
Drilling an oil well rapidly and at lower cost is now becoming a challenge in the drilling industry. To face and carry out this challenge, a good design of the drilling installation is essential. Therefore, predicting correctly friction losses, known as “Torque&Drag”, between the drill string and the borehole is a major asset especially for directional wells with complex trajectories. The existing models of friction calculation show some weaknesses in the case of complex trajectory wells. A new mechanical model of friction calculations inside complex trajectory wells was developed and validated. This model uses a 3D method of wellpath calculations called “Minimum of Torsion” that includes two geometric parameters: curvature and torsion. Unlike traditional models, which assume that the drilling structure lies, by gravity, on the low side of the borehole and often neglect the stiffness of the drill string, the new “Stiff String” model calculates the deformation state of the drilling assembly inside the hole via an iterative contact algorithm. Furthermore, the new model, by using a direct integration method of equilibrium equations, is much more faster than other one solved with finite element method. A comparison with the widely used “Soft String” model was carried out on several actual and theoretical wells. The comparison shows that the new model rectify many weaknesses of the existing model. Confrontations with measured data, in the case of wells having smooth trajectory (low tortuosity), show agreement of both models with field measurements. However the new model has better friction losses prediction when wellpath tortuosity increases
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Guda, Vamsi Krishna. "Contributions à l'utilisation de cobots comme interfaces haptiques à contact intermittent en réalité virtuelle". Thesis, Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0033.

Texto completo
Resumen
La réalité virtuelle (RV) est de plus en plus utilisée dans des simulations industrielles mais la possibilité de toucher les objets manque rapidement par exemple pour juger de la qualité perçue dans la conception de véhicule automobile. Les interfaces haptiques actuels ne permettent de restituer aisément la notion de texture, l’approche envisagée est donc une interface à contact intermittent. Un cobot vient positionner une surface mobile à l’endroit du contact avec un objet virtuel pour permettre un contact physique avec la main de l’opérateur.Les contributions de cette thèse portent sur plusieurs aspects : le placement du robot, la modélisation de l’opérateur, la gestion du déplacement et de la vitesse du robot et la détection des intentions de l’opérateur. Le placement du robot est choisi pourpermettre d’atteindre les différentes zones de travail et pour assurer une sécurité passive en rendant impossible au robot de heurter la têteet le buste de l’opérateur en position normale de travail, i.e. assis dans un fauteuil. Un modèle de l'utilisateur, incluant un torse et desbras, est conçu et testé pour suivre les mouvements de l'utilisateur en temps réel. L’interaction est possible sur un ensemble de pose prédéfinies que l’utilisateur enchaine comme il le désire. Différentes stratégies sont proposées pour prédire les intentions de l'utilisateur. Les aspects clés de la prédiction sont basés sur la direction du regard et la position de la main de l'utilisateur. Une étudeexpérimentale ainsi que l'analyse qui en découle montrent l’apport de la prise en compte de la direction du regard. L’intérêt d’introduire des points dit « de sécurité » pour éloigner le robot de l’opérateur et permettre des déplacements rapides du robot est mis en évidence
Virtual reality (VR) is evolving and being used in industrial simulations but the possibility to touch objects is missing, for example to judge the perceived quality in the design of a car. The current haptic interfaces do not allow to easily restore the notion of texture, therefore an approach is considered “intermittent contact interface” to achieve this. A cobot positions a mobile surface at the point of contact with a virtual object to allow physical contact with the operator's hand. The contributions of this thesis concern several aspects: the placement of the robot, the modeling of the operator, the management of the displacement and the speed of the robot and the detection of the operator's intentions. The placement of the robot is chosen to allow reaching the different working areas and to ensure passive safety by making it impossible for the robot to hit the head and chest of the operator in a normal working position, i.e. sitting in a chair. A model of the user, including a torso and arms, is designed and tested to follow the user's movements in real time Interaction is possible on a set of predefined poses that the user chains together as desired. Different strategies are proposed to predict the user's intentions. The key aspects of the prediction are based on the gaze direction and the hand position of the user. An experimental study as well as the resulting analysis show the contribution of taking into account the gaze direction. The interest of introducing "safety" points to move the robot away from the operator and allow fast robot movements is highlighted
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Zhang, Yuanyuan. "Friction prediction for rough surfaces in an elastohydrodynamically lubricated contact". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI063.

Texto completo
Resumen
Le frottement à l’interface des surfaces influence les performances des éléments mécaniques. Le frottement a été étudié expérimentalement dans la plupart des études. Dans ce travail, le frottement est prédit à l'aide d'une simulation numérique dans des conditions de contact rugueux avec une lubrification élastohydrodynamique (EHL). La technique classique Multigrille fonctionne bien pour limiter le temps de calcul et les besoins en mémoire. Cependant, le choix de la grille grossière a une influence importante sur la robustesse du code et son efficacité pour résoudre le problème brut. Dans la première partie de ce travail, une méthode de construction de grille grossière proposée par Alcouffe et al. est implémenté dans le code EHL Multigrille indépendamment du temps. Ensuite ce solveur modifié est étendu aux cas transitoires pour résoudre le problème de contact avec rugosité. La courbe de frottement est généralement représentée en fonction du « ratio », le rapport entre l'épaisseur du film d'huile et la valeur moyenne quadratique de la rugosité de la surface. Cependant, ce paramètre est moins approprié pour tracer les variations de frottement dans des conditions de haute pression (régime élasto piézo-visqueux). Dans la deuxième partie de ce travail, le coefficient de frottement est calculé à l'aide du code EHL modifié pour de nombreuses conditions de fonctionnement ainsi que pour les paramètres d'ondulation de surface. Les résultats de la simulation montrent qu'il n'y a pas de courbe de frottement unique lorsque l'ancien paramètre « ratio »est utilisé. En se basant sur la théorie de la réduction d'amplitude, un nouveau paramètre de dimensionnement qui dépend des conditions de fonctionnement et des paramètres d'ondulation est trouvé, ce qui peut donner une courbe de frottement unique pour les situations de haute pression. Pour les surfaces rugueuses plus complexes, une méthode basée sur la densité spectrale de puissance (PSD) est proposée pour prédire les variations de frottement dans la troisième partie de ce travail. La rugosité artificielle de la surface est utilisée pour tester d’abord la méthode de prédiction rapide. Un bon accord est trouvé entre la simulation numérique complète et cette prédiction rapide. La méthode de prédiction rapide est ensuite appliquée pour analyser la variation de frottement de la rugosité de surface mesurée. Le nouveau paramètre d’échelle et l’augmentation du frottement prédite par la méthode PSD montrent une bonne précision technique pour une utilisation pratique
The friction of interfacial surfaces greatly influences the performance of mechanical elements. Friction has been investigated experimentally inmost studies. In this work, the friction is predicted by means of numerical simulation under an elastohydrodynamic lubrication (EHL) rough contact condition. The classical Multigrid technique performs well in limiting computing time and memory requirements. However, the coarse grid choice has an important influence on code robustness and code efficiency to solve the rough problem. In the first part of this work, a coarse grid construction method proposed by Alcouffe et al. is implemented in the current time-independent EHL Multi-Grid code. Then this modified solver is extended to transient cases to solve the rough contact problem. The friction curve is usually depicted as a function of “lambda ratio”, the ratio of oil film thickness to root-mean-square of the surface roughness. However this parameter is less suitable to plot friction variations under high pressure conditions (piezoviscous elastic regime). In the second part of this work, the friction coefficient is computed using themodified EHL code for many operating conditions as well as surface waviness parameters. Simulation results show that there is no single friction curve when the old parameter "lambda ratio" used. Based on the Amplitude Reduction Theory, a new scaling parameter depends on operating condition and waviness parameters is found, which can give a unified friction curve for high pressure situation. For more complex rough surfaces, a power spectral density (PSD) based method is proposed to predict friction variations in the third part of this work. The artificial surface roughness is employed to test the rapid prediction method firstly. Good agreement is found between the full numerical simulation and this rapid prediction. Then the rapid prediction method is applied to analyze the friction variation of measured surface roughness. Both the new scaling parameter and the friction increase predicted by the PSD method show good engineering accuracy for practical use
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Allain, Fabrice. "Calcul efficace de la structure des protéines à partir de contacts évolutifs". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066366/document.

Texto completo
Resumen
Les méthodes de prédiction structurale constituent une alternative relativement efficace aux approches expérimentales pour donner un premier aperçu du repliement natif d'une protéine. L'écart entre le nombre de structures et de séquences protéiques disponibles dans les bases de données ne cesse en effet de croître depuis l'arrivée des technologies de séquençage à haut débit. Cette forte croissance des informations génomiques a remis à l'ordre du jour des techniques modélisant les données capturées au cours de l'évolution. La conservation d'une fonction protéique impose de fortes contraintes sur les contacts impliqués dans le repliement et la fonction se traduisant par une trajectoire évolutive commune. Une fois détectées, ces interactions peuvent aider à modéliser la conformation d'une protéine. Les méthodes résolvant la structure tridimensionnelle des protéines à partir des données évolutives présentent encore plusieurs limitations notamment pour la détection des contacts faux positifs. Ces problèmes restent similaires à ceux rencontrés en détermination de structure par spectrométrie de Résonnance Magnétique Nucléaire où l'intégration des données est un processus clairement établit et en grande partie automatisé. Le logiciel ARIA (Ambiguous Restraints for Iterative Assignment) utilise le concept de contraintes de distances ambiguës et suit un processus itératif afin d'attribuer et d'affiner la liste des noyaux proches dans l'espace pour calculer un ensemble de modèles structuraux en accord avec les données. Ce travail a pour objectif d'adapter cette approche pour prédire de novo la structure d'une protéine en utilisant l'information évolutive
Structural prediction methods provide a relatively effective alternative to experimental approaches to provide a first insight into native folding of a protein. The gap between the number of structures and protein sequences available in databases has steadily increased since the advent of high throughput sequencing technologies. This strong growth of genomic information helped bring to light prediction tools using coevolutionary data. Conservation of a specific function implies strong restraints on interacting residues involved in the folding and function. Once detected, these interactions can help to model the conformation of a protein. Some important aspects needs to be improved during the modelling process including the detection of false positive among the predicted contacts. Limitations in the field are similar to those encountered in nuclear magnetic resonance spectrometry structure determination where data integration is a clearly established and largely automated process. The Ambiguous Restraints for Iterative Assignment (ARIA) software uses the concept of ambiguous distance restraints and follows an iterative process to assign and refine the list of nearby nuclei in space to compute a set of structural models in accordance with the data. This work aims to adapt this approach to de novo predict the structure of a protein using evolutionary information
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Belaid, Abdessalem. "Modélisation tridimensionnelle du comportement mécanique de la garniture de forage dans les puits à trajectoires complexes : application à la prédiction des frottements garniture-puits". Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00579916.

Texto completo
Resumen
Réussir le forage d'un puits pétrolier le plus rapidement possible et à moindre coût est devenu un défi continu pour les professionnels du secteur. Pour relever ce défi, un bon dimensionnement des installations de forage s'impose. La meilleure prédiction des pertes liées aux frottements entre la garniture de forage et les parois du puits, notamment pour les puits à trajectoires fortement déviées, est un atout majeur pour ce dimensionnement.
Les modèles usuels de prédiction des frottements montrent certaines insuffisances lorsque la trajectoire du puits se complexifie. Un nouveau modèle de calcul de frottements dans les puits de forage à trajectoires complexes a été développé et validé. Ce modèle utilise une méthode tridimensionnelle de reconstitution de la trajectoire intégrant à la fois la courbure et la torsion géométrique. Contrairement aux modèles classiques, qui supposent simplement que la garniture repose par gravité sur la paroi basse du trou de forage et qui négligent souvent la rigidité des tiges, le nouveau modèle rigide calcule la vraie déformée de la garniture de forage à l'intérieur du trou via un algorithme itératif de contact unilatéral. En outre, pour un gain important du temps de calcul, le modèle se base sur une intégration numérique directe des équations d'équilibre local sans avoir recours à la méthode des éléments finis.
La comparaison avec un modèle couramment utilisé dans l'industrie de forage, appelé modèle LISSE, a été effectuée sur plusieurs puits réels et théoriques. Il ressort de cette comparaison que le nouveau modèle vient palier plusieurs faiblesses du modèle LISSE dans le cas des trajectoires à géométrie complexe (surestimation des zones de contacts et des forces de contact en présence de micro-tortuosité, non sensibilité au signe du gradient d'azimut en présence de fort gauchissement, hypothèse de contact sur la paroi basse du trou pas toujours vérifiée). Par ailleurs, la confrontation avec les mesures du terrain pour la plupart des puits à géométrie bidimensionnelle ou faiblement tridimensionnelle avec des faibles dog legs (ne dépassant pas 2 à 3°/30 m) fournit généralement des concordances entre les résultats des deux types de modèles et les valeurs mesurées. En revanche, en présence de tortuosités et dog legs locaux le nouveau modèle fournit une meilleure prédiction des pertes en frottement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Allain, Fabrice. "Calcul efficace de la structure des protéines à partir de contacts évolutifs". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066366.

Texto completo
Resumen
Les méthodes de prédiction structurale constituent une alternative relativement efficace aux approches expérimentales pour donner un premier aperçu du repliement natif d'une protéine. L'écart entre le nombre de structures et de séquences protéiques disponibles dans les bases de données ne cesse en effet de croître depuis l'arrivée des technologies de séquençage à haut débit. Cette forte croissance des informations génomiques a remis à l'ordre du jour des techniques modélisant les données capturées au cours de l'évolution. La conservation d'une fonction protéique impose de fortes contraintes sur les contacts impliqués dans le repliement et la fonction se traduisant par une trajectoire évolutive commune. Une fois détectées, ces interactions peuvent aider à modéliser la conformation d'une protéine. Les méthodes résolvant la structure tridimensionnelle des protéines à partir des données évolutives présentent encore plusieurs limitations notamment pour la détection des contacts faux positifs. Ces problèmes restent similaires à ceux rencontrés en détermination de structure par spectrométrie de Résonnance Magnétique Nucléaire où l'intégration des données est un processus clairement établit et en grande partie automatisé. Le logiciel ARIA (Ambiguous Restraints for Iterative Assignment) utilise le concept de contraintes de distances ambiguës et suit un processus itératif afin d'attribuer et d'affiner la liste des noyaux proches dans l'espace pour calculer un ensemble de modèles structuraux en accord avec les données. Ce travail a pour objectif d'adapter cette approche pour prédire de novo la structure d'une protéine en utilisant l'information évolutive
Structural prediction methods provide a relatively effective alternative to experimental approaches to provide a first insight into native folding of a protein. The gap between the number of structures and protein sequences available in databases has steadily increased since the advent of high throughput sequencing technologies. This strong growth of genomic information helped bring to light prediction tools using coevolutionary data. Conservation of a specific function implies strong restraints on interacting residues involved in the folding and function. Once detected, these interactions can help to model the conformation of a protein. Some important aspects needs to be improved during the modelling process including the detection of false positive among the predicted contacts. Limitations in the field are similar to those encountered in nuclear magnetic resonance spectrometry structure determination where data integration is a clearly established and largely automated process. The Ambiguous Restraints for Iterative Assignment (ARIA) software uses the concept of ambiguous distance restraints and follows an iterative process to assign and refine the list of nearby nuclei in space to compute a set of structural models in accordance with the data. This work aims to adapt this approach to de novo predict the structure of a protein using evolutionary information
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Fremont, Julien. "Etude des contributions aux surfaces de potentiel et couplages non-adiabatiques par calculs ab initio de structures électroniques et mise aux points des Hamiltoniens effectifs pour les prédictions vibrationnelles : applications aux molécules LiH, H+3 et PH3". Reims, 2010. http://theses.univ-reims.fr/sciences/2010REIMS019.pdf.

Texto completo
Resumen
Ce travail se place à mi chemin entre chimie théorique et spectroscopie moléculaire théorique en proposant d’exploiter à leur maximum les méthodes de chimie quantique pour ensuite réaliser des prédictions théoriques sur les trois molécules LiH, PH3 et H3+. Dans un premier temps, un chapitre est consacré aux méthodes de chimie quantique utilisées dans ce travail et permettant d’obtenir les surfaces d'énergie potentielle et états électroniques. Pour les applications en spectroscopie moléculaire, la surface d'énergie potentielle nécessite une grande précision. Le second chapitre étudie l’influence de la base de calcul, des corrélations électroniques, des corrections relativistes et des méthodes d’extrapolation sur les niveaux vibrationnels de la molécule LiH. Pour une molécule possédant un faible nombre d'électrons, il est possible d'obtenir des précisions sur la surface d'énergie potentielle telle que l'approximation de Born-Oppenheimer est mise en défaut. Le troisième chapitre développe les notions de transformation de contact et Hamiltonien effectif. Il introduit les termes issus des calculs de chimie quantique nécessaires, pour finalement appliquer ce formalisme hors approximation de Born-Oppenheimer à la molécule LiH. L'objectif de ces deux précédents chapitres est d'explorer les limites des précisions offertes par les méthodes ab-initio pour caractériser les états vibrationnels de l'ensemble des isotopologues près de la dissociation. L'étude des molécules possédant un grand nombre de variables présente d'autres types de difficultés. Le grand nombre d’électrons d'une part rend difficile les calculs de chimie quantique pour l'obtention de surface d'énergie potentielle de bonne qualité, d'autre part l'augmentation du nombre de variables nucléaires complexifie les fonctions d'onde et par conséquent le calcul des niveaux d'énergie vibrationnelle. Le quatrième chapitre propose l'étude dans le cadre de Born-Oppenheimer de la molécule PH3 contenant la dérivation de l'opérateur d'énergie cinétique en coordonnées de valences et le calcul de la surface d'énergie potentielle par méthode chimie quantique. Les symétries de l'Hamiltonien moléculaire produisent des effets encore mal compris des scientifiques. La molécule H3+ dans sa configuration C3v possède une intersection conique où les effets non-adiabatiques sont révélés. Dans ce dernier chapitre l'opérateur d'énergie cinétique en coordonnées hyperspheriques ainsi que la matrice Jacobienne associée à cette transformation sont dérivés. Les couplages non-adiabatiques calculés en coordonnées cartésiennes sont réexprimés en coordonnées hypersheriques. Après avoir présenté la transformation adiabatique-diabatique, les effets de phase géométrique sont étudiés
This work takes place at the halfway between theoretical chemistry and theoretical molecular spectroscopy by proposing to use at their limits the quantum chemistry methods and then make theoretical predictions on the three molecules LiH, PH3 and H3 +. First of all, a chapter is devoted to quantum chemistry methods used in this work to obtain the potential energy surfaces and electronic states. For applications in molecular spectroscopy, the potential energy surface requires to be very accurate. The second chapter examines the influence of the basis, electronic correlations, relativistic corrections and extrapolation methods on the vibrational levels of LiH molecule. For a molecule with a small number of electrons, it is possible to get such quality on the potential energy surface that the limit the Born-Oppenheimer approximation is reached. The third chapter develops the concepts of contact transformation and effective Hamiltonian. It introduce the terms derived from quantum chemistry calculations needed to finally apply this formalism beyond the Born-Oppenheimer approximation to the LiH molecule. The aim of these two preveiws chapters is to explore the limits of ab-initio methods to characterize the vibrational states of all isotopologues near to the dissociation. The study of molecules with a large number of variables has other types of difficulties. The large number of electrons on one hand makes difficult to quantum chemistry calculations to obtain potential energy surface of good quality, on the other hand, the increase in the number of variables complicates the nuclear wave functions and therefore the calculation of vibrational energy levels. The fourth chapter presents the study within the framework of Born-Oppenheimer of the PH3 molecule containing the derivation of the kinetic energy operator in valence coordinates and calculating the potential energy surface by quantum chemistry method. The molecular symmetries of the Hamiltonian produces effects still poorly understood by scientists. The H3 + molecule in its C3v configuration has a conical intersection where the non-adiabatic effects are revealed. In this final chapter the kinetic energy operator in hyperspherical coordinates and the Jacobian matrix associated with this transformation are derived. The non-adiabatic couplings calculated in Cartesian coordinates are reexpressed hypersheriques. After introducing the adiabatic-diabatic transformation, the geometric phase effects are studied
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Biboulet, Nans. "Influence of indentations on rolling bearing life". Phd thesis, INSA de Lyon, 2008. http://tel.archives-ouvertes.fr/tel-00663264.

Texto completo
Resumen
Les lubrifiants contiennent des particules qui sont à la fois initialement présentes dans le lubrifiant et dans le mécanisme (fabrication, stockage ) ; générées durant le rodage, par usure ou corrosion ; ou bien issues de sources externes. Les particules détériorent les surfaces en créant des indents lorsqu'elles sont piégées dans les contacts. Ces indents augmentent le risque de rupture par fatigue en induisant des perturbations de pression et de contraintes. Ce travail est basé sur une étude des contacts indentés secs et lubrifiés (EHD). L'équation de Reynolds en fluide Newtonien est utilisée. Les techniques mutigrilles et multi-intégration sont employées. L'objectif de ce travail est de proposer un modèle de prédiction des perturbations des champs de pression et de contraintes, et finalement un modèle de réduction de durée de vie des contacts indentés en fonction de la géométrie des indents et des conditions de contact.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Laporte, Julie. "Etude et modélisation de l'endurance électrique de micro-contacts soumis à des sollicitations de fretting-usure : caractérisation de nouveaux dépôts base Argent". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEC034/document.

Texto completo
Resumen
L’instrumentation de plus en plus poussée des systèmes mécaniques (aéronautique, automobile,…) impose une utilisation croissante des connecteurs électriques. Cependant, leur environnement de fonctionnement (sollicitations chimiques et vibratoires) peut entrainer une dégradation plus ou moins sévère des contacts électriques limitant ainsi le passage du courant. Pour limiter cette dégradation et assurer la stabilité des connexions, des revêtements d’or sont couramment appliqués au niveau des contacts. Cependant, la conjecture économique et le coût très élevé de l’or nécessite de trouver une alternative moins chère. Parmi les métaux conducteurs, l’argent est aujourd’hui le meilleur candidat. L’objectif de cette thèse est donc d’étudier la réponse électrique et l’endommagement de dépôts argent soumis à des sollicitations de fretting. Pour cela, ces travaux de recherche ont été abordés selon trois axes. Le premier axe a permis une étude complète d’un contact homogène argent/argent afin d’identifier les mécanismes de dégradation responsables de la rupture électrique aussi bien en fretting qu’en glissement alterné. Il a aussi été possible, par une approche énergétique, de mettre en place un modèle prédictif permettant d’extrapoler les durées de vie du contact selon différents paramètres de chargement. Une étude complémentaire a également montré l’impact d’une atmosphère corrosive à base de soufre sur les contacts électriques en argent. Le second axe a permis, quant à lui, d’étudier le comportement tribologique et électrique de nouveaux matériaux à base d’argent développés dans le but de remplacer les dépôts dorés. L’analyse de ces contacts homogènes a permis de mettre en évidence les mécanismes de dégradation et les comportements mécaniques des contacts soumis à des environnements humides. Dans le dernier axe, une étude a été menée sur ces mêmes matériaux à base d’argent mais en configuration hétérogène contre un dépôt d’or afin d’identifier le comportement tribologique et électrique de ces contacts quand ils sont composés par des matériaux avec des propriétés similaires ou opposées
Advanced instrumentation in mechanical systems (aeronautical, automobile etc…) goes hand in hand with an ever increased use of electrical connectors. However, the unfavorable operating environment (chemical attack and vibrational loads) causes more or less severe degradation of electrical contacts, which in turn perturbs their electrical conductivity. Gold plating is usually applied in electrical contacts in order to limit damage and to ensure connector stability. However, economic constraints and the high cost of gold require cheaper alternatives. Amongst conductive metals, silver is the best candidate. Hence, the purpose of this PhD project is to investigate the electrical response and the degradation of silver coatings when subjected to fretting loadings. The study is divided into three main research axes. The first axis consists in realizing a complete study of a homogeneous silver/silver contact in order to identify the degradation mechanisms that are responsible for the electrical failure, both in fretting loadings and reciprocating sliding. It was possible to formalize a predictive model, using an energy density approach, allowing to extrapolate the lifetime of the contact as a function of various loading parameters. A complementary study also showed the impact of a corrosive sulfur atmosphere on these electric contacts. As part of the second research axis, an investigation of the tribological and electrical behavior of novel silver-based materials, solely synthesized as a gold replacement, was performed. The analysis of these homogeneous contacts allowed to explain the degradation mechanism and the mechanical behavior of these contacts when subjected to a wet environment. In the last research axis a study was led on the same silver-based materials but in a heterogenous configuration against a gold coating in order to identify the tribological and electrical behavior of these contacts when composed by materials with similar or opposite properties
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Shimagaki, Kai. "Advanced statistical modeling and variable selection for protein sequences". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS548.

Texto completo
Resumen
Au cours des dernières décennies, des techniques de séquençage de protéines ont été développées et des expériences continues ont été menées. Grâce à tous ces efforts, de nos jours, nous avons obtenu plus de deux-cents millions données relative à des séquences de protéines. Afin de traiter une telle quantité de données biologiques, nous avons maintenant besoin de théories et de technologies pour extraire des informations de ces données que nous pouvons comprendre et pour apporter des idées. L'idée clé pour résoudre ce problème est la physique statistique et l'état de l'art de le Machine Learning (ML). La physique statistique est un domaine de la physique qui peut décrire avec succès de nombreux systèmes complexes en extrayant ou en réduisant les variables pour en faire des variables interprétables basées sur des principes simples.ML, d'autre part, peut représenter des données (par exemple en les reconstruisant ou en les classifiant) sans comprendre comment les données ont été générées, c'est-à-dire le phénomène physique à l'origine de la création de ces données. Dans cette thèse, nous rapportons des études de modélisation générative de séquences protéiques et de prédictions de contacts protéines-résidus à l'aide de la modélisation statistique inspirée de la physique et de méthodes orientées ML. Dans la première partie, nous passons en revue le contexte général de la biologie et de la génomique. Ensuite, nous discutons des modélisations statistiques pour la séquence des protéines. En particulier, nous passons en revue l'analyse de couplage direct (DCA), qui est la technologie de base de notre recherche
Over the last few decades, protein sequencing techniques have been developed and continuous experiments have been done. Thanks to all of these efforts, nowadays, we have obtained more than two hundred million protein sequence data. In order to deal with such a huge amount of biological data, now, we need theories and technologies to extract information that we can understand and interpret.The key idea to resolve this problem is statistical physics and the state of the art of machine learning (ML). Statistical physics is a field of physics that can successfully describe many complex systems by extracting or reducing variables to be interpretable variables based on simple principles. ML, on the other hand, can represent data (such as reconstruction and classification) without assuming how the data was generated, i.e. physical phenomenon behind of data. In this dissertation, we report studies of protein sequence generative modeling and protein-residue contact predictions using statistical physics-inspired modeling and ML-oriented methods. In the first part, we review the general background of biology and genomics. Then we discuss statistical modelings for protein sequence. In particular, we review Direct Coupling Analysis (DCA), which is the core technology of our research. We also discuss the effects of higher-order statistics contained in protein sequences and introduces deep learning-based generative models as a model that can go beyond pairwise interaction
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Coulon, Sandrine. "Prédiction de la durée de vie des contacts ponctuels lubrifiés en présence d'indentations". Lyon, INSA, 2001. http://www.theses.fr/2001ISAL0038.

Texto completo
Resumen
L'objectif de ce travail est de prédire la réduction de durée de vie et de comprendre les phénomènes physiques mis en jeu dans les processus d'endommagements des contacts ponctuels lubrifiés en présence d'indentations. Une étude numérique et analytique complète de l'influence d'un 'indent sur la répartition du champ de pression et de contraintes est effectuée. La surpression est obtenue analytiquement en fonction de deux paramètres géométriques de l'indent: sa pente, rapport de la profondeur sur le diamètre, et le rayon de courbure de ses épaulements. L'analyse des contraintes conduit à un critère local appelé limite d'endurance, basé sur le dépassement d'une contrainte limite du matériau. La prise en compte du volume contraint permet de définir des abaques de prédiction du risque d'endommagement, critère global, en fonction des paramètres cités précédemment. Ces deux outils de prédiction de la nocivité d'un indent pour la durée de vie du contact sont validés par des essais de fatigue effectués sur une machine à galets. Les phénomènes mis en jeu dans les processus d'endommagements sont ensuite analysés. Deux types de défauts sont testés, les indents artificiels obtenus à l'aide d'un pénétrateur Rockwell et les indents naturels obtenus par passage de particules dans la zone de contact. Quel que soit le type d'indents, les déformations plastiques liées au passage de la charge s'effectuent dans les tous premiers cycles, conduisant rapidement à une géométrie stabilisée du défaut. En fonction des conditions d'essais (chargement, cinématique), des phénomènes géométriques et hydrodynamiques responsables de l'endommagement sont mis en évidence. Enfin, l'analyse des directions de propagation des fissures est effectuée à partir de coupes métallographiques. Ce travail constitue une étape supplémentaire dans la prédiction et la compréhension de l'influence des polluants solides présents dans les lubrifiants sur la durée de vie des surfaces de mécanismes
The purpose of this work is to predict the rolling contact fatigue (RCF) life reduction and analyze the failure process for lubricated indented point contacts. A first part studies the influence of a dent on the pressure and stress field from a numerical and analytical point of view. An analytical relation of the pressure peak versus two geometric dent parameters is obtained: slope, ratio between the dent depth over the dent diameter, and shoulder radius of curvature. The stress analysis leads to a damage criterion. Based on a local approach, the endurance limit criterion is representative of the contact severity. Complemented with a stressed volume analysis, a damaged risk is defined. Finally, a damage risk abacus as a function of the two parameters mentioned previously is presented. The results predicted with these two criteria are compared to RCF tests performed on a two disk-machine. A second part is dedicated to the damage process and its analysis. Two kinds of defects are studied, artificial ones made with a Rockwell penetrator, and natural ones obtained from solid particles passing through the contact. Whatever the considered dent, the plastic deformation due to the over rolling occurs in the very first cycles, quickly leading to a stabilized geometry. Depending on the test conditions (load, speed, slide to roll ratio), geometric and hydrodynamic damage effects are identified. The analysis of the direction of the crack propagation is studied using cross-sections. This work represents a step forward in the prediction and understanding of the influence of solid particle contamination on fatigue life
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Kharboutly, Mohamed. "Modélisation, réalisation et commande d'un système de micro-manipulation sans contact par diélectrophorèse". Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00582992.

Texto completo
Resumen
La force de diélectrophorèse (DEP) est utilisée pour manipuler, séparer et positionner différent types des particules (cellules, bactéries, nanotubes de carbone). Dans le but d'étudier et de simuler une loi de commande permettant le suivi de la trajectoire d'une particule soumise à la force DEP un modèle est nécessaire. Les méthodes utilisées pour simuler la force DEP sont généralement basées soit sur des simulateurs à éléments finis (FEM), soit sur des équations analytiques. Les simulateurs FEM ne permettent pas la variation des paramètres (tensions électriques) lors du calcul de la trajectoire et les équations analytiques sont limitées à des géométries simples des électrodes. Dans ce manuscrit, une méthode hybride basée sur les calculs FEM et analytique est proposée. Cette méthode permet de simuler la trajectoire d'une particule en utilisant des géométries complexes et en variant les tensions électriques lors de la simulation. Ce modèle est ensuite validé en le comparant à des relevés expérimentaux. Finalement, une loi de commande, basée sur la commande prédictive généralisée (GPC) est proposée dans le but de contrôler la trajectoire, en profitant de la grande dynamique du déplacement de la particule, et ce malgré les non-linéarités. Cette loi de commande a été validée par des résultats de simulations et une comparaison avec une loi de commande classique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Cumin, Julien. "Reconnaissance et prédiction d'activités dans la maison connectée". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM071/document.

Texto completo
Resumen
Comprendre le contexte ambiant d'une maison est essentiel pour pouvoir proposer à ses occupants des services adaptés à leurs situations de vie, et qui répondent donc à leurs besoins. Un exemple de tel service est un assistant de communication, qui pourrait par exemple informer les personnes hors de la maison à propos de la disponibilité des habitants de celle-ci pour communiquer. Pour implémenter un tel service, il est en effet nécessaire que la maison prenne en compte les situations de ses occupants, pour ensuite en déduire leurs disponibilités.Dans cette thèse, nous nous intéressons dans un premier temps à définir ce qu'est le contexte dans une maison. Nous défendons que l'activité des occupants est l'une des dimensions principales du contexte d'une maison, nécessaire à la mise en œuvre de systèmes sensibles au contexte. C'est pourquoi nous étudions dans un second temps le problème de la reconnaissance automatique d'activités humaines, à partir des données de capteurs ambiants installés dans la maison. Nous proposons une nouvelle approche d'apprentissage automatique supervisé basée sur les lieux de la maison, qui améliore à la fois les performances de reconnaissance correcte d'activités ainsi que les temps de calcul nécessaires, par rapport aux approches de l'état de l'art.Par ailleurs, ces services sensibles au contexte auront probablement besoin de pouvoir anticiper les situations futures de la maison. En particulier, ils doivent pouvoir anticiper les activités futures réalisées par les occupants. C'est pourquoi nous proposons un nouveau modèle de prédiction supervisée d'activités, basé sur des modèles de l'état de l'art. Nous introduisons un certain nombre d'extensions à ce modèle afin d'améliorer les performances de prédiction, en se basant sur des spécificités des environnements de maisons instrumentées.Enfin, nous nous intéressons à l'estimation de la disponibilité des occupants à communiquer, afin d'illustrer la faisabilité de notre exemple de service d'assistance à la communication. Nous suggérons que la disponibilité peut être inférée à partir des dimensions primaires du contexte, comme le lieu et l'activité (que l'on peut reconnaitre et prédire à l'aide de nos contributions précédentes), mais en prenant également en compte le correspondant initiant la communication, ainsi que la modalité utilisée. Nous discutons de l'impact de l'étape de reconnaissance d'activités sur l'estimation de la disponibilité.Nous évaluons expérimentalement ces contributions sur différents jeux de données de l'état de l'art, ainsi que sur un nouveau jeu de données d'activités et de disponibilités dans la maison que nous avons spécifiquement construit durant cette thèse : Orange4Home. À travers nos contributions à ces trois problèmes, nous démontrons l'implémentabilité d'un service d'assistance à la communication, pouvant conseiller des correspondants extérieurs sur les futures disponibilités des occupants de la maison. De manière plus générale, nous montrons comment des dimensions secondaires du contexte, comme la disponibilité, peuvent être inférées d'autres dimensions du contexte, comme l'activité. Il est donc essentiel pour qu'une maison devienne sensible au contexte, que celle-ci dispose de systèmes de reconnaissance et de prédiction d'activités les plus fiables possibles
Understanding the context of a home is essential in order to provide services to occupants that fit their situations and thus fulfil their needs. One example of service that such a context-aware smart home could provide is that of a communication assistant, which can for example advise correspondents outside the home on the availability for communication of occupants. In order to implement such a service, it is indeed required that the home understands the situations of occupants, in order to derive their availability.In this thesis, we first propose a definition of context in homes. We argue that one of the primary context dimensions necessary for a system to be context-aware is the activity of occupants. As such, we then study the problem of recognizing activities, from ambient smart home sensors. We propose a new supervised place-based approach which both improves activity recognition accuracy as well as computing times compared to standard approaches.Smart home services, such as our communication assistance example, may often need to anticipate future situations. In particular, they need to anticipate future activities of occupants. Therefore, we design a new supervised activity prediction model, based on previous state-of-the-art work. We propose a number of extensions to improve prediction accuracy based on the specificities of smart home environments.Finally, we study the problem of inferring the availability of occupants for communication, in order to illustrate the feasibility of our communication assistant example. We argue that availability can be inferred from primary context dimensions such as place and activity (which can be recognized or predicted using our previous contributions), and by taking into consideration the correspondent initiating the communication as well as the modality of communication used. We discuss the impact of the activity recognition step on availability inference.We evaluate those contributions on various state-of-the-art datasets, as well as on a new dataset of activities and availabilities in homes which we constructed specifically for the purposes of this thesis: Orange4Home. Through our contributions to these 3 problems, we demonstrate the way in which an example context-aware communication assistance service can be implemented, which can advise on future availability for communication of occupants. More generally, we show how secondary context dimensions such as availability can be inferred from other context dimensions, in particular from activity. Highly accurate activity recognition and prediction are thus mandatory for a smart home to achieve context awareness
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Medjiah, Samir. "Optimisation des protocoles de routage dans les réseaux multi-sauts sans fil à contraintes". Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14663/document.

Texto completo
Resumen
Durant ces dernières années, de nombreux travaux de recherches ont été menés dans le domaine des réseaux multi-sauts sans fil à contraintes (MWNs: Multihop Wireless Networks). Grâce à l'évolution de la technologie des systèmes mico-electro-méchaniques (MEMS) et, depuis peu, les nanotechnologies, les MWNs sont une solution de choix pour une variété de problèmes. Le principal avantage de ces réseaux est leur faible coût de production qui permet de développer des applications ayant un unique cycle de vie. Cependant, si le coût de fabrication des nœuds constituant ce type de réseaux est assez faible, ces nœuds sont aussi limités en capacité en termes de: rayon de transmission radio, bande passante, puissance de calcul, mémoire, énergie, etc. Ainsi, les applications qui visent l'utilisation des MWNs doivent être conçues avec une grande précaution, et plus spécialement la conception de la fonction de routage, vu que les communications radio constituent la tâche la plus consommatrice d'énergie.Le but de cette thèse est d'analyser les différents défis et contraintes qui régissent la conception d'applications utilisant les MWNs. Ces contraintes se répartissent tout le long de la pile protocolaire. On trouve au niveau application des contraintes comme: la qualité de service, la tolérance aux pannes, le modèle de livraison de données au niveau application, etc. Au niveau réseau, on peut citer les problèmes de la dynamicité de la topologie réseau, la présence de trous, la mobilité, etc. Nos contributions dans cette thèse sont centrées sur l'optimisation de la fonction de routage en considérant les besoins de l'application et les contraintes du réseau. Premièrement, nous avons proposé un protocole de routage multi-chemin "en ligne" pour les applications orientées QoS utilisant des réseaux de capteurs multimédia. Ce protocole repose sur la construction de multiples chemins durant la transmission des paquets vers leur destination, c'est-à-dire sans découverte et construction des routes préalables. En permettant des transmissions parallèles, ce protocole améliore la transmission de bout-en-bout en maximisant la bande passante du chemin agrégé et en minimisant les délais. Ainsi, il permet de répondre aux exigences des applications orientées QoS.Deuxièmement, nous avons traité le problème du routage dans les réseaux mobiles tolérants aux délais. Nous avons commencé par étudier la connectivité intermittente entre les différents et nous avons extrait un modèle pour les contacts dans le but pouvoir prédire les future contacts entre les nœuds. En se basant sur ce modèle, nous avons proposé un protocole de routage, qui met à profit la position géographique des nœuds, leurs trajectoires, et la prédiction des futurs contacts dans le but d'améliorer les décisions de routage. Le protocole proposé permet la réduction des délais de bout-en-bout tout en utilisant d'une manière efficace les ressources limitées des nœuds que ce soit en termes de mémoire (pour le stockage des messages dans les files d'attentes) ou la puissance de calcul (pour l'exécution de l'algorithme de prédiction).Finalement, nous avons proposé un mécanisme de contrôle de la topologie avec un algorithme de routage des paquets pour les applications orientés évènement et qui utilisent des réseaux de capteurs sans fil statiques. Le contrôle de la topologie est réalisé à travers l'utilisation d'un algorithme distribué pour l'ordonnancement du cycle de service (sleep/awake). Les paramètres de l'algorithme proposé peuvent être réglés et ajustés en fonction de la taille du voisinage actif désiré (le nombre moyen de voisin actifs pour chaque nœud). Le mécanisme proposé assure un compromis entre le délai pour la notification d'un événement et la consommation d'énergie globale dans le réseau
Great research efforts have been carried out in the field of challenged multihop wireless networks (MWNs). Thanks to the evolution of the Micro-Electro-Mechanical Systems (MEMS) technology and nanotechnologies, multihop wireless networks have been the solution of choice for a plethora of problems. The main advantage of these networks is their low manufacturing cost that permits one-time application lifecycle. However, if nodes are low-costly to produce, they are also less capable in terms of radio range, bandwidth, processing power, memory, energy, etc. Thus, applications need to be carefully designed and especially the routing task because radio communication is the most energy-consuming functionality and energy is the main issue for challenged multihop wireless networks.The aim of this thesis is to analyse the different challenges that govern the design of challenged multihop wireless networks such as applications challenges in terms of quality of service (QoS), fault-tolerance, data delivery model, etc., but also networking challenges in terms of dynamic network topology, topology voids, etc. Our contributions in this thesis focus on the optimization of routing under different application requirements and network constraints. First, we propose an online multipath routing protocol for QoS-based applications using wireless multimedia sensor networks. The proposed protocol relies on the construction of multiple paths while transmitting data packets to their destination, i.e. without prior topology discovery and path establishment. This protocol achieves parallel transmissions and enhances the end-to-end transmission by maximizing path bandwidth and minimizing the delays, and thus meets the requirements of QoS-based applications. Second, we tackle the problem of routing in mobile delay-tolerant networks by studying the intermittent connectivity of nodes and deriving a contact model in order to forecast future nodes' contacts. Based upon this contact model, we propose a routing protocol that makes use of nodes' locations, nodes' trajectories, and inter-node contact prediction in order to perform forwarding decisions. The proposed routing protocol achieves low end-to-end delays while using efficiently constrained nodes' resources in terms of memory (packet queue occupancy) and processing power (forecasting algorithm). Finally, we present a topology control mechanism along a packet forwarding algorithm for event-driven applications using stationary wireless sensor networks. Topology control is achieved by using a distributed duty-cycle scheduling algorithm. Algorithm parameters can be tuned according to the desired node's awake neighbourhood size. The proposed topology control mechanism ensures trade-off between event-reporting delay and energy consumption
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Perrot, Clément. "Imagerie directe de systèmes planétaires avec SPHERE et prédiction des performances de MICADO sur l’E-ELT". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC212/document.

Texto completo
Resumen
Cette thèse s'inscrit dans la thématique de l'étude de la formation et de l'évolution des systèmes planétaire grâce à la méthode de l'imagerie à haut contraste, aussi appelée imagerie directe, par comparaison aux méthodes de détection dites "indirectes". Le travail que je présente dans ce manuscrit s'articule en deux parties bien distinctes. La première partie concerne la composante observationnel de ma thèse, à l'aide de l'instrument SPHERE installé au Very Large Telescope, au sein du consortium du même nom. L'instrument SPHERE a pour objectif la détection et la caractérisation de jeunes et massives exoplanètes mais également de disques circumstellaires allant des très jeune disques protoplanétaires aux disques de débris, plus âgés. Ainsi, je présente dans ce manuscrit ma contribution au programme SHINE, un grand relevé de 200 nuits dont le but est la détection de nouvelles exoplanètes ainsi que la caractérisation spectrale et orbitale des quelques compagnons déjà connus. J'y présente également les deux études de disques circumstellaires que j'ai réalisées, autour des étoiles HD 141569 et HIP 86598. La première étude ayant permis la découverte d'anneaux concentriques à quelques dizaine d'UA de l'étoile ainsi que de asymétrie dans le flux du disque inhabituelle. La seconde étude porte sur la découverte d'un disque de débris présentant également une asymétrie en flux inhabituelle. La deuxième partie concerne la composante instrumentale de mon travail de thèse, au sein du consortium MICADO, en charge de la conception de la caméra du même nom qui sera l'un des instruments de première lumière de l'Extremely Large Telescope Européen (ELT). Dans ce manuscrit, je présente l'étude que j'ai menée afin de définir le design de certain composant du mode coronographique de MICADO tout en tenant compte des contraintes de l'instrument qui n'est pas dédié à l'imagerie haut contraste, contrairement à SPHERE
This thesis is performed in the context of the study of the formation and evolution of planetary systems using high contrast imaging, also known as direct imaging in contrast to so-called "indirect" detection methods. The work I present in this manuscript is divided into two distinct parts.The first part concerns the observational component of my thesis, using the SPHERE instrument installed at Very LargeTelescope. This work was done as part of the consortium of the same name. The purpose of the SPHERE instrument is to detect and characterize young and massive exoplanets, but also circumstellar disks ranging from very young protoplanetary disks to older debris disks. In this manuscript, I present my contribution to the program SHINE, a large survey with an integration time of 200 nights' worth of observation, the goal of which is the detection of new exoplanets and the spectral and orbital characterization of some previously-known companions. I also present the two studies of circumstellar disks that I made, around the stars HD 141569 and HIP 86598. The first study allowed the discovery of concentric rings at about ten AU of the star along with an unusual flux asymmetry in the disk. The second study is about the discovery of a debris disk that also has an unusual flux asymmetry. The second part concerns the instrumental component of my thesis work done within the MICADO consortium, in charge of the design of the camera of the same name which will be one of the first light instruments of the European Extremely Large Telescope (ELT). In this manuscript, I present the study in which I define the design of some components of the coronagraphic mode of MICADO while taking into account the constraints of the instrument - which is not dedicated to high contrast imaging, unlike SPHERE
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Merabet, Samir. "Vers un droit de l'intelligence artificielle". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0528.

Texto completo
Resumen
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Djebili, Omar. "Contribution à la maintenance prédictive par analyse vibratoire des composants mécaniques tournants. Application aux butées à billes soumises à la fatigue de contact de roulement". Thesis, Reims, 2013. http://www.theses.fr/2013REIMS030/document.

Texto completo
Resumen
Le roulement est l'un des composants les plus importants des machines tournantes. Néanmoins, dans des conditions normales d'utilisation, il est soumis à de la fatigue de roulement qui peut conduire à un défaut d'écaillage. Dans ce travail, nous présentons un suivi de la fatigue d'un roulement de butée grâce à un banc d'essais dédié. L'analyse vibratoire est une méthode qui permet de caractériser et de localiser les défauts dans les roulements. Des mesures successives de ces niveaux de vibrations donnent des indications quant à l'évolution de la sévérité des défauts. Le suivi de cette évolution est fait grâce à un indicateur statistique, la valeur RMS (Root Mean Square) qui peut être corrélée avec la taille d'un écaillage de roulement. L'approche suit le fonctionnement du roulement de butée jusqu'à la dégradation avec une acquisition on line des états vibratoires sous forme de signaux temporels. A l'aide du traitement de signal, on obtient les valeurs des amplitudes vibratoires qui caractérisent l'état vibratoire du roulement. Par conséquent, ces valeurs nous permettent de tracer les courbes de fatigue. Au cours de notre travail expérimental, cette opération est appliquée à un lot de butées à billes pour lesquelles nous avons obtenu des courbes semblables où la tendance de l'évolution suit un modèle mathématique à partir de la détection de l'apparition de la première écaille. Le résultat de ce travail contribuera à prédire la durée de vie résiduelle avant la panne
The bearing is one of the most important components of rotating machines. Nevertheless, in normal conditions of use, it is subject to fatigue which creates a defect called a rolling fatigue spalling. In this work, we present a follow-up of the thrust bearing fatigue on a test bench. Vibration analysis is a method used to characterize the defect. In order to obtain the fatigue curve more adjusted, we have studied the vibration level according to statistical indicators: the Root Mean Square value (RMS value), which is one of the best indicators to show the evolution of the bearing degradation. The approach follows the working of the bearing until the degradation with an on line acquisition of vibration statements in form of time signals. With the signal treatment, we obtain the values of the vibration amplitudes which characterize the vibration state of the bearing. Consequently, these values allow us to plot the fatigue curves. During our experimental work, this operation is applied for a batch of thrust bearings for which we have obtained similar fatigue curves where the evolution trend follows a mathematical model from the detection of the onset of the first spall. The result of this work will contribute to predict the working residual time before failure
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Toumi, Mohamed Yessine. "Étude de l'endommagement des composants mécaniques soumis à de la fatigue de roulement dans le cadre d'une maintenance prédictive : cas des butées à billes". Thesis, Reims, 2015. http://www.theses.fr/2015REIMS033.

Texto completo
Resumen
Le roulement est un élément essentiel dans la conception des machines tournantes. À l'échelle industrielle, sa défaillance peut avoir de coûteuses conséquences. La maintenance prédictive sert à minimiser les coûts d'entretien et à prévenir de l'état de fatigue du composant mécanique. Dans ce cadre, nous proposons une étude de l'endommagement par fatigue de contact de roulement appliquée au cas des butées à billes. Cette étude se structure en deux axes : numérique et expérimental. Le premier consiste à établir une modélisation numérique tridimensionnelle dynamique du passage cyclique d'une bille sur une bande de roulement en présence d'un indent, en utilisant la méthode des éléments finis. L'estimation de l'évolution de la taille d'un défaut d'écaillage initié en surface en fonction des cycles de chargement est effectuée. Ces résultats sont en adéquation avec les essais en laboratoire effectués dans les mêmes conditions à l'aide d'un banc d'essais de fatigue dédié aux butées à billes. Le deuxième axe consiste à déterminer un indicateur vibratoire utilisant l'analyse modale et permettant d'estimer le niveau d'endommagement de la butée à billes in situ en présence d'indent. La technique développée dans ces travaux permet de suivre l'évolution des valeurs de l'amortissement modal en fonction des cycles de vie, évolution déterminée à partir des essais en modes statique et dynamique. Cette étude contribuera à l'estimation de la durée de vie résiduelle du composant mécanique après apparition d'un écaillage en surface, en utilisant la méthode des éléments finis et en prenant compte de l'état d'endommagement de la structure
The bearing is an essential element in the design of rotating machines. In an industrial context, bearing failure can have extremely costly consequences. Predictive maintenance minimizes the intervention costs and warns about the state of fatigue of the mechanical component. In this frame, we propose a study of the rolling contact fatigue damage applied to thrust ball bearings. This study is twofold: numerical and experimental. The first axis consists in establishing a dynamic three-dimensional numerical model of the cyclic shift of a ball on a running surface in the presence of an indent, using the finite element method. An estimation of the size evolution of a surface initiated spall depending on loading cycles is also performed. These results are consistent with laboratory tests executed in the same conditions using a fatigue test rig dedicated to ball bearings. The second axis consists in determining a vibratory indicator using modal analysis to estimate the on-line structural damage level of the ball bearing in the presence of an indent. The technique developed in this work enables monitoring the evolution of the modal damping values based on the life cycles determined from tests in static and dynamic modes. This study will contribute to estimate the residual life of the mechanical component after onset of a spall using the finite element method and accounting for the structural damage state
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Merabet, Samir. "Vers un droit de l'intelligence artificielle". Electronic Thesis or Diss., Aix-Marseille, 2018. https://buadistant.univ-angers.fr/login?url=https://bibliotheque.lefebvre-dalloz.fr/secure/isbn/9782247201235.

Texto completo
Resumen
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Muscat, Maureen. "Machine learning and co-evolution methods for protein-protein interactions". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS507.

Texto completo
Resumen
Dans cette thèse, nous nous intéresserons à l'utilisation de l'apprentissage automatique pour le problème de la prédiction des interactions protéine-protéine (IPP). L'étude des interactions protéine-protéine est un problème central en biologie, car les protéines interagissent entre elles pour former les réseaux complexes qui assurent les fonctions biologiques des cellules. Les techniques expérimentales permettant de déterminer quand et comment les protéines interagissent sont très coûteuses et prennent beaucoup de temps. Il existe donc un grand besoin de méthodes informatiques permettant de prédire les IPP. Nous allons explorer l'utilisation de l'apprentissage automatique basé sur la coévolution et l'apprentissage profond pour la prédiction des IPP. Les méthodes de coévolution ont été utilisées avec succès pour un certain nombre de tâches différentes, telles que la prédiction des contacts intra-protéines, des contacts inter-protéines et la prédiction du paysage mutationnel. Au cours de mon doctorat, j'ai développé un algorithme d'apprentissage automatique supervisé pour prédire les contacts inter-domaines et inter-protéines, appelé FilterDCA. L'objectif était d'ajouter une certaine supervision, en utilisant des patterns de contact typiques, tout en gardant l'outil interprétable. J'ai également travaillé sur les interactions protéines-protéines dans le virus SARS-CoV2 et dans le cas d'un complexe multi-protéique présent dans les membranes de certaines bactéries
In this thesis, we focus on the use of machine learning to solve the problem of the prediction of protein-protein interactions (PPI). The study of PPI is a central problem in biology, as proteins interact with each other to form complex networks that carry out the biological functions of cells. Experimental techniques to determine when and how proteins interact are very costly and time-consuming, so there is a great need for computational methods that can predict PPIs. We will explore the use of machine learning based on coevolution and deep learning for PPI prediction. Coevolutionary methods such as Direct Coupling Analysis have been used successfully for a number of different tasks, such as the prediction of intra-protein contacts, inter-protein contacts, and the prediction of mutational landscape. During my Ph.D., I developed a supervised machine learning algorithm to predict inter-domain and inter-protein contact maps called FilterDCA. The aim was to add some supervision, using typical contact patterns, while keeping the tool interpretable. I have also worked on PPIs in the SARS-CoV2 virus and on a multi-protein complex present in some bacteria membranes
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Marconnet, Bertrand. "Contexte augmenté basé sur les prédictions pour une réutilisation efficace des connaissances métier en conception : application à la conception proactive pour l'assemblage". Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCA018/document.

Texto completo
Resumen
Les travaux sur le contexte augmenté en conception produit, permet de sensibiliser les concepteurs sur leur choix en conception pour l'assemblage. L'approche présentée conclura sur la méthode pour développer un démonstrateur informatique, basé sur des cas d’études de conception mécanique. L’objectif de celui-ci est de capturer l’intention de conception, afin de proposer une aide utile aux acteurs métier, comme un support de conception, dans la prise de décisions, la vérification/validation, et la structuration de données
Works on the design context augmentation in product design, makes it possible to make awareness designers on their choice in the design for assembly. The presented approach will conclude on the method to develop a informatic system, based on case studies of mechanical design. The purpose of the project is to capture the design intent, in order to provide useful assistance to stakeholders, such as design support, decision making, verification/validation, and data structuring
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Germain, Dimitri. "Développement d'un modèle d'efforts de coupe intégrant le contact en dépouille : application au tournage de superfinition du cuivre Cu-c2". Phd thesis, Paris, ENSAM, 2011. http://pastel.archives-ouvertes.fr/pastel-00661684.

Texto completo
Resumen
L'objectif de ces travaux est la modélisation des efforts de coupe dans le cas de la superfinition à l'outil coupant du cuivre Cu-c2 par le biais de la démarche Couple-Arête-Matière. La prédiction des efforts permet d'adapter les conditions de coupe pour une opération d'usinage où de définir les spécifications des outils lors de leur conception. Le Couple-Arête-Matière repose sur la discrétisation d'arête et la mise en place sur chaque élément d'arête des efforts élémentaires fonctions de la géométrie et des conditions de coupe locales. Cette dépendance de la géométrie et de ces conditions de coupe est introduite par la mise en place d'un modèle d'efforts. Par sommation sur la longueur d'arête en prise, il est possible de déterminer les efforts globaux dans les repères liés à l'outil ou à la pièce. Cette étude vise le calcul de ces efforts au travers de trois modèles. Les deux premiers modèles développés sont de type phénoménologique et calculent les efforts à partir des paramètres opératoires courants tels que l'épaisseur coupée, la géométrie de l'outil et la qualité de l'arête. Le troisième modèle est analytique et basé sur les mécanismes de formation du copeau. Les efforts sont déterminés à partir des contributions des trois zones communément identifiées ; la zone de cisaillement primaire est caractérisée par une loi de comportement de type Norton-Hoff, les deuxième et troisième zones, respectivement en contact avec le copeau et la face en dépouille sont caractérisées par une distribution de contraintes. Les performances de ces trois modèles sont comparées via le Couple-Arête-Matière. Les données expérimentales sont obtenues à partir d'images réalisées en cours d'usinage par une caméra à haute résolution ainsi que par des mesures d'efforts en coupe orthogonale sur des disques et des tubes, permettant la mise en évidence de l'effet du diamètre de la pièce usinée sur la zone de contact en dépouille.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Flayols, Thomas. "Exploitation du Retour de Force pour l'Estimation et le Contrôle des Robots Marcheurs". Thesis, Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0025/document.

Texto completo
Resumen
Dans cette thèse, on s’intéresse à la commande des robots marcheurs. Contrôler ces systèmes naturellement instables, de dynamique non linéaire, non convexe, de grande dimension, et dépendante des contacts représente un défi majeur en robotique mobile. Les approches classiques formulent une chaîne de contrôle formée d’une cascade de sous problèmes tels que la perception, le planning, la commande du corps complet et l’asservissement articulaire. Les contributions rapportées ici ont toutes pour but d’introduire une rétroaction au niveau de la commande du corps complet ou du planning. Précisément, une première contribution technique est la formulation et la comparaison expérimentale de deux estimateurs de la base du robot. Une seconde contribution est l’implémentation d’un contrôleur par dynamique inverse pour contrôler en couple le robot HRP-2. Une variante de ce contrôleur est aussi formulée et testée en simulation pour stabiliser un robot en contact flexible avec son environnement. Finalement un générateur de marche par commande pré-dictive et couplé à un contrôleur corps complet est présenté
In this thesis, we are interested in the control of walking robots. Controlling these naturally unstable, non-linear, non-convex, large and contact-dependent systems is a major challenge in mobile robotics. Traditional approaches formulate a chain of control formed by a cascade of sub-problems such as perception, planning, full body control and joint servoing. The contributions reported here are all intended to provide state feedback at the whole body control stage or at the planning stage. Specifically, a first technical contribution is the formulation and experimental comparison of two estimators of the robot base. A second contribution is the implementation of a reverse dynamic controller to control the HRP-2 robot in torque. A variant of this controller is also formulated and tested in simulation to stabilize a robot in flexible contact with its environment. Finally, a predictive control operation generator coupled to a whole body controller is presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Bensadon, Jérémy. "Applications de la théorie de l'information à l'apprentissage statistique". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS025/document.

Texto completo
Resumen
On considère ici deux sujets différents, en utilisant des idées issues de la théorie de l'information : 1) Context Tree Weighting est un algorithme de compression de texte qui calcule exactement une prédiction Bayésienne qui considère tous les modèles markoviens visibles : on construit un "arbre de contextes", dont les nœuds profonds correspondent aux modèles complexes, et la prédiction est calculée récursivement à partir des feuilles. On étend cette idée à un contexte plus général qui comprend également l'estimation de densité et la régression, puis on montre qu'il est intéressant de remplacer les mixtures Bayésiennes par du "switch", ce qui revient à considérer a priori des suites de modèles plutôt que de simples modèles. 2) Information Geometric Optimization (IGO) est un cadre général permettant de décrire plusieurs algorithmes d'optimisation boîte noire, par exemple CMA-ES et xNES. On transforme le problème initial en un problème d'optimisation d'une fonction lisse sur une variété Riemannienne, ce qui permet d'obtenir une équation différentielle du premier ordre invariante par reparamétrage. En pratique, il faut discrétiser cette équation, et l'invariance n'est plus valable qu'au premier ordre. On définit l'algorithme IGO géodésique (GIGO), qui utilise la structure de variété Riemannienne mentionnée ci-dessus pour obtenir un algorithme totalement invariant par reparamétrage. Grâce au théorème de Noether, on obtient facilement une équation différentielle du premier ordre satisfaite par les géodésiques de la variété statistique des gaussiennes, ce qui permet d'implémenter GIGO. On montre enfin que xNES et GIGO sont différents dans le cas général, mais qu'il est possible de définir un nouvel algorithme presque invariant par reparamétrage, GIGO par blocs, qui correspond exactement à xNES dans le cas Gaussien
We study two different topics, using insight from information theory in both cases: 1) Context Tree Weighting is a text compression algorithm that efficiently computes the Bayesian combination of all visible Markov models: we build a "context tree", with deeper nodes corresponding to more complex models, and the mixture is computed recursively, starting with the leaves. We extend this idea to a more general context, also encompassing density estimation and regression; and we investigate the benefits of replacing regular Bayesian inference with switch distributions, which put a prior on sequences of models instead of models. 2) Information Geometric Optimization (IGO) is a general framework for black box optimization that recovers several state of the art algorithms, such as CMA-ES and xNES. The initial problem is transferred to a Riemannian manifold, yielding parametrization-invariant first order differential equation. However, since in practice, time is discretized, this invariance only holds up to first order. We introduce the Geodesic IGO (GIGO) update, which uses this Riemannian manifold structure to define a fully parametrization invariant algorithm. Thanks to Noether's theorem, we obtain a first order differential equation satisfied by the geodesics of the statistical manifold of Gaussians, thus allowing to compute the corresponding GIGO update. Finally, we show that while GIGO and xNES are different in general, it is possible to define a new "almost parametrization-invariant" algorithm, Blockwise GIGO, that recovers xNES from abstract principles
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Risser-Maroix, Olivier. "Similarité visuelle et apprentissage de représentations". Electronic Thesis or Diss., Université Paris Cité, 2022. http://www.theses.fr/2022UNIP7327.

Texto completo
Resumen
L’objectif de cette thèse CIFRE est de développer un moteur de recherche par image, basé sur la vision par ordinateur, afin d’assister les officiers des douanes. En effet, nous constatons, paradoxalement, une augmentation des menaces sécuritaires (terrorisme, trafic, etc.) couplée d’une diminution des effectifs en Douane. Les images de cargos acquises par des scanners à rayons X permettent déjà l’inspection d’un chargement sans nécessiter l’ouverture et la fouille complète d’un chargement contrôlé. En proposant automatiquement des images similaires, un tel moteur de recherche permettrait d’aider le douanier dans sa prise de décision face à des signatures visuelles de produits peu fréquents ou suspects. Grâce à l’essor des techniques modernes en intelligence artificielle (IA), notre époque subit de grands changements : l’IA transforme tous les secteurs de l’économie. Certains voient dans cet avènement de la "robotisation" la déshumanisation de la force de travail, voire son remplacement. Cependant, réduire l’utilisation de l’IA à la simple recherche de gains de productivité serait réducteur. En réalité, l’IA pourrait permettre d’augmenter la capacité de travail des humains et non à les concurrencer en vue de les remplacer. C’est dans ce contexte, la naissance de l’Intelligence Augmentée, que s’inscrit cette thèse. Ce manuscrit consacré à la question de la similarité visuelle se décompose en deux parties. Deux cas pratiques où la collaboration entre l’Homme et l’IA est bénéfique sont ainsi proposés. Dans la première partie, le problème de l’apprentissage de représentations pour la recherche d’images similaires fait encore l’objet d’investigations approfondies. Après avoir implémenté un premier système semblable à ceux proposés par l’état de l’art, l’une des principales limitations est pointée du doigt : le biais sémantique. En effet, les principales méthodes contemporaines utilisent des jeux de données d’images couplées de labels sémantiques uniquement. Les travaux de la littérature considèrent que deux images sont similaires si elles partagent le même label. Cette vision de la notion de similarité, pourtant fondamentale en IA, est réductrice. Elle sera donc remise en question à la lumière des travaux en psychologie cognitive afin de proposer une amélioration : la prise en compte de la similarité visuelle. Cette nouvelle définition permet une meilleure synergie entre le douanier et la machine. Ces travaux font l’objet de publications scientifiques et d’un brevet. Dans la seconde partie, après avoir identifié les composants clefs permettant d’améliorer les performances du système précédemment proposé, une approche mêlant recherche empirique et théorique est proposée. Ce second cas, l’intelligence augmentée est inspirée des développements récents en mathématiques et physique. D’abord appliquée à la com- préhension d’un hyperparamètre important (la température), puis à une tâche plus large (la classification), la méthode proposée permet de fournir une intuition sur l’importance et le rôle de facteurs corrélés à la variable étudiée (ex. hyperparamètre, score, etc.). La chaîne de traitement ainsi mise en place a démontré son efficacité en fournissant une solution hautement explicable et en adéquation avec des décennies de recherches en apprentissage automatique. Ces découvertes permettront l’amélioration des solutions précédemment développées
The objective of this CIFRE thesis is to develop an image search engine, based on computer vision, to assist customs officers. Indeed, we observe, paradoxically, an increase in security threats (terrorism, trafficking, etc.) coupled with a decrease in the number of customs officers. The images of cargoes acquired by X-ray scanners already allow the inspection of a load without requiring the opening and complete search of a controlled load. By automatically proposing similar images, such a search engine would help the customs officer in his decision making when faced with infrequent or suspicious visual signatures of products. Thanks to the development of modern artificial intelligence (AI) techniques, our era is undergoing great changes: AI is transforming all sectors of the economy. Some see this advent of "robotization" as the dehumanization of the workforce, or even its replacement. However, reducing the use of AI to the simple search for productivity gains would be reductive. In reality, AI could allow to increase the work capacity of humans and not to compete with them in order to replace them. It is in this context, the birth of Augmented Intelligence, that this thesis takes place. This manuscript devoted to the question of visual similarity is divided into two parts. Two practical cases where the collaboration between Man and AI is beneficial are proposed. In the first part, the problem of learning representations for the retrieval of similar images is still under investigation. After implementing a first system similar to those proposed by the state of the art, one of the main limitations is pointed out: the semantic bias. Indeed, the main contemporary methods use image datasets coupled with semantic labels only. The literature considers that two images are similar if they share the same label. This vision of the notion of similarity, however fundamental in AI, is reductive. It will therefore be questioned in the light of work in cognitive psychology in order to propose an improvement: the taking into account of visual similarity. This new definition allows a better synergy between the customs officer and the machine. This work is the subject of scientific publications and a patent. In the second part, after having identified the key components allowing to improve the performances of thepreviously proposed system, an approach mixing empirical and theoretical research is proposed. This secondcase, augmented intelligence, is inspired by recent developments in mathematics and physics. First applied tothe understanding of an important hyperparameter (temperature), then to a larger task (classification), theproposed method provides an intuition on the importance and role of factors correlated to the studied variable(e.g. hyperparameter, score, etc.). The processing chain thus set up has demonstrated its efficiency byproviding a highly explainable solution in line with decades of research in machine learning. These findings willallow the improvement of previously developed solutions
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Fourty, Guillaume. "Recherche de contraintes structurales pour la modélisation ab initio du repliement protéique". Paris 7, 2006. http://www.theses.fr/2006PA077101.

Texto completo
Resumen
La compréhension du processus de repliement protéique et la détermination de la structure tridimensionnelle à partir de la seule information de séquence sont des problématiques majeures de la biologie structurale. Nous observons, tout d'abord, la proximité quasi-systématique des extrémités N- et C-terminales des domaines protéiques qui pourrait être liée aux premières étapes du repliement. Puis, nous abordons le repliement de polymères sur des réseaux réguliers. L'énumération des orbites et des orbites cycliques hamiltoniennes sur des réseaux carrés n x n permet d'évaluer la réduction de l'espace conformationnel associée à la proximité des extrémités des chaînes. L'exploration exhaustive de ces structures de compacité maximale fournit une limite énergétique pour les algorithmes de recherche de minima pour des séquences HP. Enfin, nous étudions des alignements multiples à faible identité de séquence et nous introduisons une mesure de la conservation de l'hydrophobie, que nous appelons topohydrophobie généralisée. A l'aide d'arbres de décision, nous prédisons des caractéristiques structurales telles que la position Central/Bord des brins becta dans les feuillets et l'accessibilité au solvant (RAPT - Relative Accessibility Prédiction Tool). Ces informations peuvent être intégrées dans des approches de prédiction ab initio du repliement protéique
Understanding the protein folding process and predicting protein structures from sequence data only remain two challenging questions for structural biologists. In this work, we first observe highly frequent proximities between N- and C-termini of protein domain, probably reflecting early stages of folding. Then we address the problem of polymer folding on regular lattices. We enumerate Hamiltonian Orbits and Cyclic Hamiltonian Orbits on n x n square lattices to evaluate the conformational space reduction associated to the termini contact constraint. Exhaustive Exploration of those maximally compact structures provides a baseline for minimum search algorithm in the HP- folding problem. Finally, we study multiple alignments at low sequence identity and introduce topohydrophobicity, a measure of topohydrophobicity conservation. We use it through decision tree to predict structural features such as Central/Edge position of beta strands in beta sheets and solvent accessibility (RAPT - Relative Accessibility Prediction Tool). These data can be used in ab initio prediction procedures of protein structures
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Crombé, Amandine. "Développement des approches radiomics à visées diagnostique et pronostique pour la prise en charge de patients atteints des sarcomes des tissus mous". Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0059.

Texto completo
Resumen
Les sarcomes des tissus mous (STM) sont des tumeurs malignes mésenchymateuses ubiquitaires hétérogènes en terme de présentations cliniques, radiologiques, histologiques, moléculaires et pronostiques. L’imagerie de référence des STM est l’IRM avec injection de produit de contraste qu’il s’agisse du bilan initial, de l’évaluation de la réponse aux traitements, de la planification préopératoire ou de la recherche de rechute locale. De plus, l’IRM permet d’accéder à la tumeur en place, in vivo, dans sa globalité et de manière non invasive, en complément des analyses anatomo-pathologiques et moléculaires qui nécessitent des prélèvements invasifs ne correspondant qu’à une infime fraction du volume tumoral. Cependant, aucun biomarqueur radiologique n’a été validé dans la prise en charge des STM. Parallèlement, se sont développés (i) d’autres modalités et séquences d’imagerie quantitative permettant d’aboutir à une quantification de phénomène physiopathologique intratumoraux, (ii) des techniques d’analyse d’image permettant de quantifier les phénotypes radiologiques au-delà de ce que peut voir l’œil humain à travers de multiples indicateurs de texture et de forme (: indices radiomics), et (iii) des outils d’analyses mathématiques (: algorithme de machine-learning) permettant d’intégrer et trier toutes ces informations dans des modèles prédictifs. Les approches radiomics correspondent au développement de modèles prédictifs basés sur ces algorithmes et ces indices radiomics. L’objectif de cette thèse est de mettre en application ces innovations et de les optimiser pour améliorer la prise en charge des patients atteints de STM. Pour cela, trois grands axes ont été développés. Dans une première partie, nous avons cherché à améliorer la prédiction du pronostic de patients atteints de certains sarcomes en combinant approches radiologiques classiques et approches radiomics sur leur IRM initiale, avec comme potentielle application de mieux identifier les patients à haut risque de rechute métastatique. Dans une deuxième partie, nous avons construit un modèle basé sur l’évolution précoce de l’hétérogénéité intratumorale ( : delta-radiomics) de patients atteints de STM traités par chimiothérapie néoadjuvante afin d’identifier les patients n’y répondant pas favorablement et qui pourraient bénéficier d’adaptations thérapeutiques anticipées. Dans une troisième et dernière partie, nous avons cherché à identifier et mieux contrôler les biais potentiels des approches radiomics afin, in fine, d’optimiser les modélisations prédictives basées sur les indices radiomics
Soft-tissue sarcomas (STS) are malignant ubiquitous mesenchymal tumors that are characterized by their heterogeneity at several levels, i.e. in terms of clinical presentation, radiological presentation, histology, molecular features and prognosis. Magnetic resonance imaging (MRI) with a contrast-agent injection is the imaging of reference for these tumors. MRI enables to perform the local staging, the evaluation of response to treatment, to plan the surgery and to look for local relapse. Furthermore, MRI can access non-invasively to the whole tumor in situ and in vivo which is complementary to histopathological and molecular analyses requiring invasive biopsy samples at risk of sampling bias. However, no imaging biomarker dedicated to STS has been validated so far. Meanwhile, technical innovations have been developed, namely: (i) alternative imaging modalities or MRI sequences that can quantify intratumoral physiopathological phenomenon; (ii) image analysis tools that can quantify radiological phenotypes better than human’s eyes through hundreds of textural and shape quantitative features (named radiomics features); and (iii) mathematical algorithms that can integrate all these information into predictive models (: machine-learning). Radiomics approaches correspond to the development of predictive models based on machine-learning algorithms and radiomics features, eventually combined with other clinical, pathological and molecular features. The aim of this thesis was to put these innovations into practice and to optimize them in order to improve the diagnostic and therapeutic managements of patients with STS.In the first part, we combined radiological and radiomics features extracted from the baseline structural MRIs of patients with a locally-advanced subtype of STS in order to build a radiomics signature that could help to identify patients with higher risk of metastatic relapse and may benefit from neoadjuvant treatments. In the second part, we elaborated a model based on the early changes in intratumoral heterogeneity (: delta-radiomics) on structural MRIs of patients with locally-advanced high-grade STS treated with neoadjuvant chemotherapy, in order to rapidly identify patients who do not respond to treatment and would benefit from early therapeutic adjustments. In the last part, we tried to better identify and control potential bias in radiomics approaches in order to optimize the predictive models based on radiomics features
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Bantegnie, Brice. "Eliminating propositional attitudes concepts". Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0020.

Texto completo
Resumen
Dans cette thèse je défends l'élimination des concepts d'attitudes propositionnelles. Dans le premier chapitre, je présente les thèses éliminativistes en philosophie de l'esprit et des sciences cognitives contemporaines. Il y a deux types d'éliminativisme: le matérialisme éliminatif et l'éliminativisme des concepts. Il est possible d'éliminer les concepts soit des théories naïves soit des théories scientifiques. L'éliminativisme à propos des concepts d'attitudes propositionnelles que je défends requière le second type d'élimination. Dans les trois chapitres suivants je donne trois arguments en faveur de cette thèse. Je commence par soutenir que la théorie interventionniste de la causalité ne fonde pas nos jugements de causalité mentale. Ensuite je montre que nos concepts d'attitudes propositionnelles ne sont pas des concepts d'espèces naturelles car ils groupent ensemble les états des différents modules d'une architecture massivement modulaire, la thèse de modularité massive faisant partie, je l'affirme, de notre meilleur programme de recherche. Finalement, mon troisième argument repose sur l’élimination du concept de contenu mental de nos théories. Dans les deux derniers chapitres de la thèse, je défends ce dernier argument. Tout d'abord, je réfute l'argument du succès selon lequel étant donné que les psychologues emploient le concept de contenu mental et ce faisant produisent de la bonne science ce concept ne devrait pas être éliminé. Ensuite je rejette une autre façon d'éliminer ce concept, celle choisie par les théoriciens de la cognition étendue. Pour cela je réfute le meilleur argument qui a été donné en faveur de cette thèse: l'argument du système
In this dissertation, I argue for the elimination of propositional attitudes concepts. In the first chapter I sketch the landscape of eliminativism in contemporary philosophy of mind and cognitive science. There are two kinds of eliminativism: eliminative materialism and concept eliminativism. One can further distinguish between folk and science eliminativism about concepts: whereas the former says that the concept should be eliminated from our folk theories, the latter says that the concept should be eliminated form our scientific theories. The eliminativism about propositional attitudes concepts I defend is a species of the latter. In the next three chapters I put forward three arguments for this thesis. I first argue that the interventionist theory of causation cannot lend credit to our claims of mental causation. I then support the thesis by showing that propositional attitudes concepts aren't natural kind concepts because they cross-cut the states of the modules posited by the thesis of massive modularity, a thesis which, I contend, is part of our best research-program. Finally, my third argument rests on science eliminativism about the concept of mental content. In the two last chapters of the dissertation I first defend the elimination of the concept of mental content from the success argument, according to which as psychologists produce successful science while using the concept of mental content, the concept should be conserved. Then, I dismiss an alternative way of eliminating the concept, that is, the way taken by proponents of extended cognition, by refuting what I take to be the best argument for extended cognition, namely, the system argument
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Giaoui, Franck S. "Indemnisation du préjudice économique en cas d'inexécution contractuelle : étude comparative en common law américaine, droit civil français et droit commercial international : application aux avant-contrats, atteintes à la réputation commerciale et activités sans base établie". Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01D036.

Texto completo
Resumen
Force est de constater l'absence dans les textes de loi d'une définition précise de la réparation intégrale et a fortiori de règles d'évaluation des dommages-intérêts compensatoires. La doctrine tente bien de pallier ce vide en décrivant les différents types d'indemnisation, notamment aux États-Unis. Pourtant, la difficulté reste entière lorsque le préjudice existe mais que son estimation est délicate ou incertaine. En effet, ces questions sont considérées uniquement comme des questions de faits ; les juges du fond restent donc souverains, ce qui débouche sur une grande imprévisibilité pour les parties. Réduire l'imprévisibilité judiciaire du dommage passe par le choix et la définition d'un cadre de travail commun. S'appuyant notamment sur les résultats d'une analyse empirique comparative de centaines de cas de jurisprudence, l'étude formalise des prescriptions à l'intention des parties qui souhaitent améliorer leurs chances de succès dans le recouvrement des gains manqués et de la perte de chance. Elle évoque aussi la nécessité d'améliorer la pratique judiciaire dans l'application du droit actuel à la réparation intégrale. Surtout, elle aboutit à une conclusion normative fondamentale qui consisterait à considérer le préjudice économique et financier, les dommages ­intérêts et le calcul du quantum également comme des questions de droit. Dès lors, il relèverait d'une bonne justice que la Cour de cassation préconisa et contrôla l'usage de telle ou telle méthode d'évaluation. Chaque chef de préjudice économique serait ainsi qualifié juridiquement et la notion de réparation intégrale serait élargie pour indemniser plus complètement le préjudice économique difficilement quantifiable.Il ressort enfin que des barèmes référencés d'indemnisation peuvent être construits à partir de l'observation de précédents jugés d'inexécutions contractuelles. L'introduction de ces barèmes pourrait bénéficier aux chercheurs dans leurs débats académiques, aux parties dans la rédaction de leurs contrats, aux conseils dans leurs échanges précontentieux voire aux juges comme outil d'aide à la décision. Si ces barèmes étaient validés et partagés, ils pourraient donner naissance à des modèles d'intelligence artificielle de type machine learning dont la valeur -notamment prédictive -serait sans commune mesure avec ce qu'on en perçoit aujourd'hui
Law statutes and codes lack of a precise definition of the « full compensation » principle, and a fortiori they Jack of rules for assessing compensatory damages. The legal doctrine tries to fil] in the blank by describing the different types of damages awarded, notably in the United States. Yet, the issue remains full when the Joss is certain but its valuation remains complex or uncertain. The assessment of the economic Joss and the calculation methodology for damages are considered to be only matters of facts: trial courts and judges thus retain a sovereign power, resulting in great uncertainty for the parties. Reducing judicial uncertainty requires the choice and creation of a common framework. Based on the results of an empirical law and economics analysis of several hundreds of precedent cases, the dissertation formulates simple and practical suggestions for parties looking to improve their chances of success in recouping lost profits and lost opportunities. It also evidences which improvements of the judicial systems are required in order to actually implement the current right to full compensation. More importantly the research reaches a fundamental nonnative conclusion: economic Joss, compensatory damages and hence, the calculation of the quantum granted should be considered, not as mere matters of facts but also as matters of law. Henceforth, it would be logical that the Cour de cassation ( or the highest court) advises and controls the use of calculation methodology. Each head of damages would thus be legally qualified and the principle of full compensation would be extended in order to better compensate the loss when evaluating its quantum is complex. It finally results that referenced compensatory scales can be practically developed from compiling relevant legal precedents. The introduction of such scales would benefit academics in their debates, parties in the drafting of their contracts and counsels in their pre-trial exchanges. Eventually, judges could use them as tools to assist their rulings. If those scales were to be adopted and shared, they would enable the creation of such artificial intelligence as machine learning which value - notably the predictive value - would far exceed what is perceived today
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Affes, Hend. "Modélisation au niveau transactionnel de l'architecture et du contrôle relatifs à la gestion d'énergie de systèmes sur puce". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4137/document.

Texto completo
Resumen
Les systèmes embarqués sur puce (SoC) envahissent notre vie quotidienne. Avec les progrès technologiques, ils intègrent de plus en plus de fonctionnalités complexes impliquant des charges de calcul et des tailles de mémoire importantes. Alors que leur complexité est une tendance clé, la consommation d’énergie est aussi devenue un facteur critique pour la conception de SoC. Dans ce contexte, nous avons étudié une approche de modélisation au niveau transactionnel qui associe à un modèle fonctionnel SystemC-TLM une description d’une structure de gestion d’un arbre d’horloge décrit au même niveau d’abstraction. Cette structure développée dans une approche de séparation des préoccupations fournit à la fois l’interface pour la gestion de puissance des composants matériels et pour le logiciel applicatif. L’ensemble des modèles développés est rassemblé dans une librairie ClkARCH. Pour appliquer à un modèle fonctionnel un modèle d’un arbre d’horloge, nous proposons une méthodologie en trois étapes : spécification, modélisation et simulation. Une étape de vérification en simulation est aussi considérée basée sur des contrats de type assertion. De plus, nos travaux visent à être compatibles avec des outils de conception actuels. Nous avons proposé une représentation d’une structure de gestion d’horloge et de puissance dans le standard IP-XACT permettant de produire les descriptions C++ des structures de gestion de puissance du SoC. Enfin, nous avons proposé une approche de gestion de puissance basée sur l’observation globale des états fonctionnels du système dans le but d’éviter ainsi des prises de décisions locales peu efficaces à une optimisation de l’énergie
Embedded systems-on-chip (SoC) invade our daily life. With advances in semiconductor technology, these systems integrate more and more complex and energy-intensive features which generate increasing computation load and memory size requirements. While the complexity of these systems is a key trend, energy consumption has emerged as a critical factor for SoC designers. In this context, we have studied a modeling transactional level approach allowing a description of a clock tree and its management structure to be associated with a functional model, both described at the same abstraction level. This structure developed in a separation of concerns approach provides both the interface to the power consumption management of the hardware components and the application software. All the models developed are gathered in a C++ ClkArch library. To apply to a SystemC-TLM architecture model a clock tree intent with its control part, we propose a methodology based on three steps: specification, modeling and simulation. A verification step based on simulation is also considered using contracts of assertion type. This work aims to build a modelling approach on current design tools. So we propose a representation of a clock and power management structure in the IP-XACT standard allowing a C++ description of the SoC power management structures to be generated. Finally, a power management strategy based on the global functional states of the components of the system architecture is proposed. This strategy avoids local decision-making unsuited to optimized overall power/energy management
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Braconnier, Jean-Baptiste. "Maintien de l'intégrité de robots mobiles en milieux naturels". Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22667/document.

Texto completo
Resumen
La problématique étudiée dans cette thèse concerne le maintien de l’intégrité de robots mobiles en milieux naturels. L’objectif est de fournir des lois de commande permettant de garantir l’intégrité d’un véhicule lors de déplacements autonomes en milieux naturels à vitesse élevée (5 à 7 m.s -1 ) et plus particulièrement dans le cadre de l’agriculture de précision. L’intégrité s’entend ici au sens large. En effet, l’asservissement des déplacements d’un robot mobile peut générer des consignes nuisant à son intégrité physique, ou à la réalisation de sa tâche (renversement, tête-à-queue, stabilité des commandes, maintien de la précision, etc.). De plus, le déplacement en milieux naturels amène des problématiques liées notamment à des conditions d’adhérence variables et relativement faibles (d’autant plus que la vitesse du véhicule est élevée), ce qui se traduit par de forts glissements des roues sur le sol, ou encore à des géométries de terrains non traversables par le robot. Aussi, cette thèse vise à déterminer en temps réel l’espace de stabilité en terme de commandes admissibles permettant de modérer les actions du robot. Après une présentation des modélisations existantes, et des observateurs permettant l’exploitation de ces modélisations pour la mise en place de loi de commande prédictive en braquage pour le suivi de trajectoire, une nouvelle méthode d’estimation des glissements basé sur une observation cinématique est proposée. Celle-ci permet de répondre aux problématiques de vitesse variable (et notamment du passage de la vitesse par des valeurs nulles) du véhicule et d’observation lors d’un déplacement sans trajectoire de référence. Ce nouvel observateur est primordial pour la suite des développements de cette thèse, puisque la suite des travaux s’intéresse à la modulation de la vitesse du véhicule. Ainsi, dans la suite des travaux, deux lois de commande prédictives agissant sur la vitesse du véhicule ont été mises en place. La première apporte une solution à la problématique de la saturation des actionneurs en braquage, lorsque la vitesse ou les glissements rendent la trajectoire à suivre inadmissible vis-à-vis des capacités physiques du véhicule. La deuxième répond à la problématique de la garantie de la précision du suivi de trajectoire (maintien du véhicule dans un couloir de déplacement). Dans les deux cas la stratégie de commande est similaire : on prédit l’état futur du véhicule en fonction de ses conditions d’évolution actuelle et de conditions d’évolutions futures simulées (obtenues grâce à la simulation de l’évolution d’un modèle dynamique du véhicule) afin de déterminer la valeur de la vitesse optimale pour que les variables cibles (dans un cas la valeur du braquage et dans l’autre l’écart à la trajectoire) respectent les conditions imposées (non-dépassement d’une valeur cible). Les résultats présentés dans ce mémoire ont été réalisés soit en simulations, soit en conditions réelles sur des plateformes robotiques. Il en découle que les algorithmes proposés permettent dans un cas de réduire la vitesse du véhicule pour éviter la saturation du braquage et donc les phénomènes de sur et sous virage qui en découlerait et donc permet de conserver la commandabilité du véhicule. Et dans l’autre cas de garantir que l’écart à la trajectoire reste sous une valeur cible
This thesis focused on the issue of the preseving of the integrity of mobile robots in off-road conditions. The objective is to provide control laws to guarantee the integrity of a vehicle during autonomous displacements in natural environments at high speed (5 to 7 m.s -1 ) and more particularly in The framework of precision farming. Integrity is here understood in the broad sense. Indeed, control of the movements of a mobile robot can generate orders that affect its physical integrity, or restrains the achievement of its task (rollover, spin, control stability, maintaining accuracy , etc.). Moreover, displacement in natural environments leads to problems linked in particular to relatively variable and relatively low adhesion conditions (especially since the speed of the vehicle is high), which results in strong sliding of wheels on the ground, or to ground geometries that can not be crossed by the robot. This thesis aims to determine in real time the stability space in terms of permissible controls allowing to moderate the actions of the robot. After a presentation of the existing modelings and observers that allow the use of these modelizations for the implementation of predictive control law for trajectory tracking, a new method of estimation of side-slip angles based on a kinematic observation is proposed. It permit to address the problem of variable speed of the vehicle (and in particular the case of zero values) and also to allow the observation during a displacement without reference trajectory. This new observer is essential for the further development of this thesis, since the rest of the work is concerned with the modulation of the speed of the vehicle. So, in the further work, two predictive control laws acting on the speed of the vehicle have been set up. The first one provides a solution to the problem of the saturation of steering actuators, when the speed or side-slip angles make the trajectory inadmissible to follow with respect to the physical capacities of the vehicle. The second one adress the problem of guaranteeing the accuracy of trajectory tracking (keeping the vehicle in a corridor of displacement). In both cases, the control strategy is similar: the future state of the vehicle is predicted according to the current conditions of evolution and the simulated one for the future evolution (obtained by simulating the evolution of dynamics models of the vehicle) in order to determine the value of the optimum speed so that the target variables (in one case the value of the steering and in the other the lateral deviation from the trajectory) comply with the imposed conditions (not exceeding a target value). The results presented in this thesis were realized either in simulations or in real conditions on robotic platforms. It follows that the proposed algorithms make it possible : in one case to reduce the speed of the vehicle in order to avoid the saturation of the steering actuator and therefore the resulting over and under steering phenomena and thus make it possible to preserve the vehicle’s controllability. And in the other case, to ensure that the lateral deviation from the trajectory remains below a target value
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Guillet, Audrey. "Commande locale décentralisée de robots mobiles en formation en milieu naturel". Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22609/document.

Texto completo
Resumen
La problématique étudiée dans cette thèse concerne le guidage en formation d’une flotte de robots mobiles en environnement naturel. L’objectif poursuivi par les robots est de suivre une trajectoire connue (totalement ou partiellement) en se coordonnant avec les autres robots pour maintenir une formation décrite comme un ensemble de distances désirées entre les véhicules. Le contexte d’évolution en environnement naturel doit être pris en compte par les effets qu’il induit sur le déplacement des robots. En effet, les conditions d’adhérence sont variables et créent des glissements significatifs des roues sur le sol. Ces glissements n’étant pas directement mesurables, un observateur est mis en place, permettant d’obtenir une estimation de leur valeur. Les glissements sont alors intégrés au modèle d’évolution, décrivant ainsi un modèle cinématique étendu. En s’appuyant sur ce modèle, des lois de commande adaptatives sur l’angle de braquage et la vitesse d’avance d’un robot sont alors conçues indépendamment, asservissant respectivement son écart latéral à la trajectoire et l’interdistance curviligne de ce robot à une cible. Dans un second temps, ces lois de commande sont enrichies par un algorithme prédictif, permettant de prendre en compte le comportement de réponse des actionneurs et ainsi d’éviter les erreurs conséquentes aux retards de la réponse du système aux commandes. À partir de la loi de commande élémentaire en vitesse permettant d’assurer un asservissement précis d’un robot par rapport à une cible, une stratégie de commande globale au niveau de la flotte est établie. Celle-ci décline l’objectif de maintien de la formation en consigne d’asservissement désiré pour chaque robot. La stratégie de commande bidirectionnelle conçue stipule que chaque robot définit deux cibles que sont le robot immédiatement précédent et le robot immédiatement suivant dans la formation. La commande de vitesse de chaque robot de la formation est obtenue par une combinaison linéaire des vitesses calculées par la commande élémentaire par rapport à chacune des cibles. L’utilisation de coefficients de combinaison constants au sein de la flotte permet de prouver la stabilité de la commande en formation, puis la définition de coefficients variables est envisagée pour adapter en temps réel le comportement de la flotte. La formation peut en effet être amenée à évoluer, notamment en fonction des impératifs de sécurisation des véhicules. Pour répondre à ce besoin, chaque robot estime en temps réel une distance d’arrêt minimale en cas d’urgence et des trajectoires d’urgence pour l’évitement du robot précédent. D’après la configuration de la formation et les comportements d’urgence calculés, les distances désirées au sein de la flotte peuvent alors être modifiées en ligne afin de décrire une configuration sûre de la formation
This thesis focuses on the issue of the control of a formation of wheeled mobile robots travelling in off-road conditions. The goal of the application is to follow a reference trajectory (entirely or partially) known beforehand. Each robot of the fleet has to track this trajectory while coordinating its motion with the other robots in order to maintain a formation described as a set of desired distances between vehicles. The off-road context has to be considered thoroughly as it creates perturbations in the motion of the robots. The contact of the tire on an irregular and slippery ground induces significant slipping and skidding. These phenomena are hardly measurable with direct sensors, therefore an observer is set up in order to get an estimation of their value. The skidding effect is included in the evolution of each robot as a side-slip angle, thus creating an extended kinematic model of evolution. From this model, adaptive control laws on steering angle and velocity for each robot are designed independently. These permit to control respectively the lateral distance to the trajectory and the curvilinear interdistance of the robot to a target. Predictive control techniques lead then to extend these control laws in order to account for the actuators behavior so that positioning errors due to the delay of the robot response to the commands are cancelled. The elementary control law on the velocity control ensures an accurate longitudinal positioning of a robot with respect to a target. It serves as a base for a global fleet control strategy which declines the overall formation maintaining goal in local positioning objective for each robot. A bidirectionnal control strategy is designed, in which each robot defines 2 targets, the immediate preceding and following robot in the fleet. The velocity control of a robot is finally defined as a linear combination of the two velocity commands obtained by the elementary control law for each target. The linear combination parameters are investigated, first defining constant parameters for which the stability of the formation is proved through Lyapunov techniques, then considering the effect of variable coefficients in order to adapt in real time the overall behavior of the formation. The formation configuration can indeed be prone to evolve, for application purposes and to guarantee the security of the robots. To fulfill this latter requirement, each robot of the fleet estimates in real time a minimal stopping distance in case of emergency and two avoidance trajectories to get around the preceding vehicle if this one suddenly stops. Given the initial configuration of the formation and the emergency behaviors calculated, the desired distances between the robots can be adapted so that the new configuration thus described ensures the security of each and every robot of the formation against potential collisions
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Bresson, Damien. "Étude de l’écoulement sanguin dans un anévrysme intracrânien avant et après traitement par stent flow diverter : quantification par traitement d’images de séquences angiographiques 2D". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2308/document.

Texto completo
Resumen
Les anévrysmes intracrâniens (AIC) sont des malformations artérielles développées au dépend des vaisseaux qui vascularisent le parenchyme cérébral. Leur rupture provoque une hémorragie intracrânienne, appelée hémorragie sous-arachnoïdienne, responsable d'une mortalité importante ou de séquelles fonctionnelles lourdes. Le traitement préventif de ces lésions est fréquemment réalisé lors d'une procédure endovasculaire (appelée coiling), par implantation, au sein de la poche artérielle pathologique, de spires métallique en platine à détachement contrôlé (les coils). La présence de ce matériel provoque une thrombose de la poche ce qui entraine secondairement une exclusion de l'anévrysme de la circulation artérielle. Une modalité de traitement endovasculaire plus récente fait appel à un dispositif implantable innovant appelé stent "flow diverter" (FD) que l'on déploie en regard de l'orifice qui fait communiquer l'artère et l’anévrysme : le collet anévrysmal. Ces stents FD, au design particulier, associant une faible porosité à une densité de pores élevée, agissent comme des "déflecteurs" et diminuent le flux sanguin entrant et sortant de l'anévrysme. L'objectif du traitement demeure toujours l'exclusion de l'anévrysme mais celle-ci est obtenue indirectement en agissant sur la "porte d'entrée" de l'anévrysme (le collet) et non plus directement sur la poche anévrysmale elle-même. Il ne s'agit plus alors de remplir le sac anévrysmal avec des coils mais de provoquer une thrombose stable et pérenne en altérant uniquement le flux sanguin qui le pénètre. Cette modalité thérapeutique novatrice a suscité un engouement important de la part des neuroradiologues interventionnels depuis 2007, date des premières implantations en Europe. Cependant, bien que reposant sur les capacités d'un tel dispositif à modifier le flux, on constate qu'il existe très peu d'outils d'imagerie disponibles actuellement et capables de quantifier ces modifications en un délai raisonnable pour pouvoir être exploité lors du traitement endovasculaire. De cette constatation clinique est né un projet collaboratif dont la finalité était le développement d'un outil logiciel basé sur les séquences d'angiographie numérisées soustraites et capable de mesurer au moins un des aspects du flux sanguin (et donc de ses modifications). La démarche de recherche mise en œuvre s'est effectuée en trois étapes. Premièrement, une étape expérimentale portant sur la réalisation d'un modèle "optimisé" d'AIC permettant le recueil de données hémodynamiques et d'imagerie. Puis, une étape de recherche plus fondamentale comprenant deux parties: d'une part des simulations numériques réalisées dans le cadre d'un modèle 3D réaliste d'AIC et d'autre part l'analyse d'images angiographiques. Au cours de cette étape, nous avons utilisé des outils de traitement d'images existants et développé certains algorithmes, puis les avons validés avant de les implémenter sous JAVA pour créer un outil logiciel d'analyse de flux. Enfin, la dernière étape du projet a consisté en l'exploitation du logiciel pour étudier une série clinique de patients traités d'un AIC par stent FD. Elle a permis de mettre en évidence certains facteurs prédictifs d'exclusion de l'anévrysme à long terme susceptible d'avoir un impact, en temps réel, sur le traitement des AIC par stent FD
Intracranial aneurysms treatment based on intra aneurismal flow modification tend to replace traditionally coiling in many cases and not only complex aneurysms for which they were initially designed. Dedicated stents (low porosity, high pores density stents) called “flow diverter” stents are deployed across the neck of the aneurysm to achieve this purpose. The summation of three different mechanisms tend to lead to the healing of the aneurysm: immediate flow alteration due to the mechanical screen effect of the stent, physiological triggering of acute or progressive thrombus formation inside the aneurysm’s pouch and long term biological response leading in neointima formation and arterial wall remodeling. This underlying sequence of processes is also supposed to decrease the recanalization rate. Scientific data supporting the flow alteration theory are numerous and especially computational flow dynamics (CFD). These approaches are very helpful for improving biomechanical knowledge of the relations between blood flow and pathology, but they do not fit in real-time treatments. Neuroendovascular treatments are performed under dynamic x-ray modality (digital subtracted angiography a DSA-).However, in daily practice, FD stents are sized to the patient’s 3D vasculature anatomy and then deployed. The flow modification is then evaluated by the clinician in an intuitive manner: the decision to deploy or not another stent is based solely on a visual estimation. The lack of tools available in the angioroom for quantifying in real time the blood flow hemodynamics should be pointed out. It would make sense to take advantage of functional data contained in contrast bolus propagation and not only anatomical data. Thus, we proposed to create flow software based on angiographic analysis. This software was built using algorithms developed and validated on 2D-DSA sequences obtained in a swine intracranial aneurysm model. This intracranial animal model was also optimized to obtain 3D vascular imaging and experimental hemodynamic data that could be used to realize realistic computational flow dynamic. In a third step, the software tool was used to analyze flow modification from angiographic sequences acquired during unruptured IA from patients treated with a FD stent. Finally, correlation between flow change and aneurysm occlusion at long term follow-up with the objective of identifying predictive markers of long term occlusion was performed
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Paquin-Lafleur, Stéphanie. "Des délits et des hommes : portrait des auteurs d’actions indécentes du Québec et caractéristiques associées à la récidive et à la commission de crimes sexuels avec contacts". Thesis, 2020. http://hdl.handle.net/1866/25756.

Texto completo
Resumen
Le crime d’action indécente a longtemps été défini par la communauté scientifique et administré par la justice davantage comme une nuisance qu’un crime sexuel. Cette situation peut s’expliquer du fait que ce type de délit n’implique pas de contacts sexuels physiques avec la victime et que les conséquences négatives associées à l’agression sur la victime sont souvent minimisées. Ainsi, cette étude s’inscrit dans le cadre d’un stage à la Division des crimes contre la personne de la Sûreté du Québec. Cette recherche a comme application concrète de soutenir le processus de ciblage des récidivistes potentiels en matière d’actions indécentes dans le cadre de dossiers d’enquêtes. Le but est donc de décrire un portrait rétrospectif de la carrière criminelle des 3 572 auteurs présumés ou avérés d’actions indécentes dénoncés au Québec entre 2011 et 2018 Des analyses univariées, bivariées et multivariées ainsi qu’une courbe ROC ont été effectuées sur la population à l’étude. Les résultats de l’étude suggèrent que près de 22% des infracteurs sont récidivistes en matière d’action indécente et que 18% de la population à l’étude ont commis un crime sexuel avec contacts sur une victime. Les deux groupes se sont également avérés être en grande majorité des hommes, plus jeunes en termes d’âge, plus prolifiques et plus diversifiés en termes de variété de catégories de crimes que ceux qui n’ont jamais récidivé ou commis de crime sexuel avec contact. Finalement, les meilleurs prédicteurs se sont avérés être le sexe des infracteurs, la présence d’antécédents de crimes sexuels, de crimes violents et de crimes de la catégorie « Autres infractions criminelles » pouvant être associés à des bris d’ordonnances ou des omissions de se conformer à des engagements de la Cour. Ces individus demeurent toutefois marginaux puisque la grande majorité de la population d’auteurs d’actions indécentes n’a pas commis de récidive ou encore de crime sexuel avec contact sur une victime.
The crime of indecent act has long been defined by the scientific community and administered by justice more as a nuisance than a sexual crime. This can be explained by the fact that this type of crime does not involve physical sexual contact with the victim and that the negative consequences associated with the assault on the victim are often minimized. Thus, this study is part of an internship at the Crimes Against the Person Division of the Sûreté du Québec. The concrete application of this research is to support the process of targeting potential recidivists for indecent acts in investigation files. The goal is therefore to describe a retrospective portrait of the criminal careers of the 3,572 alleged or proven perpetrators of indecent acts reported in Quebec between 2011 and 2018. Univariate, bivariate and multivariate analyses and a ROC analysis were performed on the study population. The results of the study suggest that nearly 22% of the offenders are repeat offenders in indecent acts and that 18% of the study population have committed a sexual crime with contact with a victim. Both groups were also found to be overwhelmingly male, younger in terms of age, more prolific, and more diverse in terms of the variety of crime categories than those who had never re-offended or committed a contact sexual crime. Finally, the best predictors were found to be the gender of the offenders, the presence of a history of sexual crimes, violent crimes, and crimes in the "Other Criminal Offences" category that may be associated with breaches of orders or failures to comply with court undertakings. However, these individuals remain marginal since the vast majority of the indecent act offender population has not committed a recidivism or a sexual crime involving contact with a victim.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Lara-Carrasco, Jessica. "Les rêves durant la grossesse : étude de leur nature et de leur rôle prédictif dans l’adaptation psychologique à la maternité". Thèse, 2013. http://hdl.handle.net/1866/11301.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Dugré, Jules. "L'évaluation du risque de comportements suicidaires et d'automutilation en obéissance aux hallucinations auditives impérieuses". Thèse, 2016. http://hdl.handle.net/1866/19075.

Texto completo
Resumen
La présente recherche vise, dans un premier temps, à mieux documenter la relation entre les hallucinations auditives impérieuses à contenus violents et le risque d’obéissance à celles-ci. Plus spécifiquement, l’étude, subséquente au bilan de recherches antérieures sur le sujet, tente d’identifier les facteurs de risque associés à l’obéissance aux hallucinations auditives impérieuses dont les contenus violents sont dirigés vers soi chez une population d’individus aux prises avec un trouble mental grave. Pour ce faire, des analyses secondaires ont été effectuées à l’aide de la base de données de l’étude de MacArthur sur l’évaluation du risque de violence. Des analyses de régression logistique binaire ont révélé que la détresse émotionnelle, l’historique d’obéissance, le fait d’avoir un trouble actuel d’abus de drogue, un trouble actuel de dépression majeure, le fait d’avoir été victime d’abus physique durant l’adolescence ainsi que la sévérité du phénomène hallucinatoire prédisaient tous l’obéissance aux hallucinations auditives impérieuses dont les contenus violents étaient dirigés vers soi. L’étude met en évidence une modélisation prédictive importante afin de guider les cliniciens vers une meilleure évaluation et gestion du risque de gestes automutilatoires et suicidaires en réponse aux hallucinations auditives impérieuses chez les individus aux prises avec un trouble mental grave.
The current research consist, in a first step, to better document the relationship between harmful command hallucinations and compliance. More specifically, the study resulted from a literature review on this subject that aims to identify the risk factors associated with compliance to self-harm command hallucinations in individuals with a major mental disorder. To accomplish this, secondary analyses were performed using the MacArthur Violence Risk Assessment Study database. Binary logistic regressions revealed that emotional distress, history of compliance, actual drug abuse disorder, actual major depressive disorder, victimization of physical abuse during adolescence and severity of the hallucinatory behavior were all significant predictors of compliance to self-harm command hallucinations. The study highlights an important predictive model that may guide clinicians to improve the assessment and management of deliberate self-harm and suicidal behaviors in response to command hallucinations in individuals diagnosed with a major mental disorder.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía