Tesi sul tema "Développement et validation d’échelle"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Développement et validation d’échelle.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Développement et validation d’échelle".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Chapaux-Morelli, Pascale. "La dissonance identitaire au travail : développement théorique et demarche operationnelle par une approche mixed-method". Electronic Thesis or Diss., Paris 8, 2020. http://www.theses.fr/2020PA080006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec l’intérêt croissant envers les questions identitaires, la dissonance identitaire au travail devient un enjeu majeur. Il s’agit d’un inconfort psychologique sévère suite à une divergence consciemment éprouvée par l’individu entre ce qu’il pense être et ce qui le contraint dans son sentiment identitaire. Après une présentation des aspects historiques touchant à l’identité nous avons élaboré, dans le cadre de la Théorie de la Divergence du Self (Higgins, 1987), un instrument de mesure à travers une approche inductive, au vu du manque de littérature spécifique. La construction de l’IDS-Work a donné lieu à une structure, en deux dimensions indépendantes, pour un total de onze items. La latitude d’expression identitaire mesure le degré par lequel l’individu exprime sa personnalité et son identité au travail, et la pression normative mesure le degré de contraintes perçues au niveau identitaire. Nous avons ensuite procédé à l’analyse des effets de la dissonance identitaire sur les processus de santé au travail, puis à une étude qualitative où la dissonance est envisagée comme un levier d’évolution. Les résultats de ces différentes études ont permis : de souligner l’effet direct massif de la dissonance identitaire sur l’intention de quitter, le bien-être eudémonique et, très massivement, sur la dissonance émotionnelle ; de dégager des profils latents séparant les individus souhaitant changer de métier ou pas, les premiers ayant des scores faibles d’estime de soi et de focus promotionnel ; de souligner l’importance de phénomènes tels que l’héritage social ou le multi-jobbing. Les résultats sont discutés et les perspectives futures envisagées
Considering the increasing interest in identity issues, identity dissonance at work is becoming a major issue. It is a severe psychological discomfort as a result of a conscious discrepancy experienced by the individual between actual self and ought self, at the workplace. After a presentation of the historical aspects of identity and on the basis of Higgins’ Self-Discrepancy Theory, we developed an instrument of measurement through an inductive approach, given the lack of specific literature. The construction of the IDS-Work resulted in an independent two-dimensional structure for a total of eleven items. The latitude of expressive identity measures the degree by which the individual expresses his/her personality and identity at work, and normative pressure measures the degree of perceived constraints at an identity level. We then analyzed the effects of identity dissonance on occupational health processes, and realized a qualitative study, in which dissonance is seen as a lever for evolution. The results of such studies have allowed: to highlight the direct effect of identity dissonance on the intention to leave, the eudemonic well-being and, very massively, on emotional dissonance; to identify latent profiles separating individuals who wish to change occupation or not, the former with low scores of self-esteem and promotional focus; to underline the importance of phenomena such as social heritage or multi-jobbing. The results are discussed, and the future research envisaged
2

Rudelle, Astié Anne. "Approche culturelle des compétences politiques en contexte organisationnel français". Electronic Thesis or Diss., Paris 8, 2019. http://www.theses.fr/2019PA080090.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de cette thèse était de conceptualiser un modèle des compétences politiques adapté au contexte organisationnel français. A partir d’une réflexion interculturelle entre les modes de fonctionnement organisationnel français et américain, le Political Skill Inventory (PSI) développé par Ferris, Treadway, Kolodinsky, Hochwarter, Kacmar, Douglas & Frink (2005) a été étendu aux niveaux positionnel et idéologique de la théorie psychosociale de Doise (1982), à la dimension formelle des organisations (Mintzberg, 1983) et à l’analyse stratégique de Crozier et Friedberg (1977). Quatre études ont permis de développer une structure factorielle à quatre dimensions (accès à la connaissance formelle, influence interpersonnelle, intuition des relations stratégiques, propension à l’apprentissage) et de montrer la validité initiale de l’échelle de mesure: le French Political Skill Inventory (FPSI). Nous avons montré que la structure factorielle du FPSI n’est pas maintenue en contexte organisationnel américain. Le modèle antécédents dispositionnels/aptitudes personnelles de Ferris, Treadway, Perrewé, Brouer, Douglas & Lux (2007) a révélé une bonne adéquation à notre modèle. Suite au constat que les hommes ont déclaré des scores de FPSI significativement plus élevés que les femmes, nous avons montré que les différences sexuées observées sont dues à des variations de l’identité de genre et non au sexe biologique. En particulier, les profils androgynes ont rapporté des scores de FPSI significativement plus élevés que les profils féminins et indifférenciés
The aim of this thesis was to conceptualize a model of political skill adapted to the French organizational context. Based on an intercultural reflection between the modes of French and American organizational functioning, the Political Skill Inventory (PSI) developed by Ferris, Treadway, Kolodinsky, Hochwarter, Kacmar, Douglas, & Frink (2005) has been extended to positional and ideological levels from Doise’s psychosocial theory (1982), to the formal dimension of organizations (Mintzberg, 1983) and to the strategic analysis of Crozier and Friedberg (1977). Four studies have led to the development of a four-factor structure (access to formal knowledge, interpersonal influence, intuition of strategic relationships, propensity for learning) and gave evidence of the initial validity of the scale of measurement: the French Political Skill Inventory (FPSI). We have shown that the factor structure of the FPSI is not maintained in the American organizational context. The dispositional and personal ability antecedents of political skill from Ferris, Treadway, Perrewé, Brouer, Douglas & Lux (2007) revealed a good fit to our model. Following the finding that men reported significantly higher FPSI scores than women, we showed that the gender differences observed are due to variations in gender identity and not in biological sex. In particular, androgynous profiles reported significantly higher FPSI scores than female and undifferentiated profiles
3

Rolland, Jean-François. "Développement et validation d'architectures dynamiques". Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00367994.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de cette thèse, nous nous proposons d'étudier le développement et la validation de systèmes dans un contexte temps réel asynchrone. On a choisi d'utiliser le langage AADL pour ses spécificités issues de l'avionique, domaine proche du spatial, et pour la précision de la description de son modèle d'exécution. Le travail de cette thèse se divise en deux axes principaux : d'une part, on étudie l'utilisation du langage AADL dans le cadre du développement d'un logiciel de vol ; et d'autre part, on présente une version réduite du langage AADL, et la définition formelle de son modèle d'exécution à l'aide du langage TLA+. L'objectif de la première partie est d'envisager l'utilisation d'AADL dans le cadre d'un processus de développement existant dans le domaine du spatial. Dans cette partie, on a cherché à identifier des motifs de conceptions récurrents dans les logiciels de vol. Enfin, on étudie l'expression en AADL des différents éléments de ce processus de développement. La seconde partie comporte la définition d'un mini AADL suffisant pour exprimer la plupart des concepts de parallélisme, de communication et de synchronisation qui caractérisent AADL. La partie formalisation est nécessaire afin de pouvoir vérifier des propriétés dynamiques. En effet, la définition formelle du modèle d'exécution permet de décrire le comportement attendu des modèles AADL. Une fois ce modèle défini, on peut à l'aide d'un vérificateur de modèles (model-checker) animer une modélisation AADL ou aborder la vérification de propriétés dynamiques. Cette étude a par ailleurs été menée dans le cadre de la standardisation du langage AADL.
4

Laurent, Claire. "Développement et validation de modèles d'évaporation multi-composant". Toulouse, ISAE, 2008. http://www.theses.fr/2008ESAE0013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de l'étude des écoulements diphasiques gaz-liquide, très présents dans les systèmes propulsifs, les réacteurs nucléaires ou les conduites utilisées pour l'extraction et le transport des produits pétroliers, l'évaporation des gouttes apparaît au cœur de la modélisation physique des phénomènes. Devant le besoin engendré par le développement d'outils de simulation numérique toujours plus performants, l‘enjeu de la thèse était double. Il s'agissait à la fois de contribuer à la validation expérimentale des modèles d'évaporation, mais aussi de proposer de nouvelles méthodes numériques permettant la prise en compte de la composition des gouttes dans les codes de calcul. La validation expérimentale s'est focalisée sur l'étude de la conduction thermique dans les gouttes en évaporation. Le couplage de deux techniques de mesure de température, la Fluorescence Induite par Laser et l'Arc-en-ciel, a ainsi permis d'obtenir des premières estimations de gradients thermiques dans les gouttes. Les campagnes de mesure réalisées ont également contribué au développement de ces techniques grâce à la coopération aveci différents laboratoires travaillant à leur mise au point. Des méthodes numériques ont ensuite été adaptées à la problématique de l'évaporation multi-composant pour permettre la modélisation de la composition des gouttes dans les codes de calcul. La méthode de Quadrature des Moments qui offre un compromis intéressant entre coût de calcul et précision a été retenue en raison de certaines propriétés intéressantes de robustesse. Ces propriétés ont été étudiées et démontrées dans le cas de la modélisation de l'évaporation multi-composant. Par ailleurs, cette méthode a permis de résoudre le cas difficile de la condensation d'un composant volatil sur la goutte, une configuration sur laquelle se heurtent les autres méthodes qui présument la forme de la fonction de distribution associée à la composition de la goutte.
5

Choinière, Jean-Philippe. "Conception, développement et validation expérimentale d'une boussole haptique". Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-delà de 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.
This Master’s thesis presents the design, control and experimental validation of a haptic compass, designed as a guiding device for the visually impaired in all environments. The literature review shows that there is a need for haptic guidance and how this technology differs from current haptic devices. The proposed device uses the principle of asymmetric torques. Its design is based on a direct drive motor and a pre-calibrated open-loop control, which allows the generation of stimuli in a wide range of frequencies. The device is calibrated and its mechanical properties are evaluated to ensure that the open-loop control provides sufficient precision. A first user study presents interesting effectiveness in the frequency range 5 to 15 Hz and for torques over 40 mNm. In a second experiment, the use of a haptic feedback proportional to the anglular error is shown to significantly improve the results. An experimental validation by a group of subjects walking with the aid of the portable device in an open environment is then reported. The results show that all participants met all route objectives with small lateral deviations (0:39 m on average). The performances obtained and the user’s impressions are favorable and confirm the potential of this device. Finally, a model of the human orientation task is developed and demonstrates the importance of individual customization. A receding horizon strategy for the placement of the current target on the path is thereby proposed.
6

Iorga, Cristian. "Développement de méthodologies de conception et validation pour le développement de produits et composants structuraux". Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/11427.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent projet de recherche est dédié à la formalisation et à l'intégration des méthodologies de conception et validation à la phase de conception détaillée, afin de favoriser les échanges de connaissances entre les acteurs impliqués dans le processus de développement de produits. La conception détaillée implique des interactions entre trois éléments : la géométrie, les matériaux et les chargements. Conséquemment, dans le cadre de cette thèse qui intègre plusieurs articles, les liens entre ces trois éléments seront formalisés au niveau des méthodologies de conception. Plus spécifiquement, les méthodologies de conception proposées seront centrées sur la phase de conception détaillée. En effet, dans la littérature existante, peu d'articles s'attardent à décrire les processus itératifs selon lesquels un concept est développé en produit dans le respect des critères de conception mentionnés dans le cahier de charges et tout en gardant le lien avec les connaissances disciplinaires et les outils d'assistance actuels. Il faudra donc envisager des méthodologies de conception détaillée qui cibleront plusieurs critères de conception et qui s'adapteront à divers types de produits. À l'étape de conception détaillée, dans le cadre du processus de développement de produits, il faudra également intégrer l'optimisation et la validation de produits. Les activités d'optimisation permettent de trouver une ou plusieurs combinaisons de paramètres maximisant ou minimisant un critère de conception donné, tandis que les activités de validation fournissent une rétroaction au concepteur, afin de vérifier l'exactitude des calculs réalisés et l'atteinte de tous les critères de conception. L'application d'une décomposition des étapes représente une stratégie qui sera utilisée pour le développement de méthodologies de conception et de validation de produits. Les sous-étapes qui en résulteront seront plus faciles à accomplir et à gérer. Qui plus est, les sous-étapes peuvent interagir entre elles, donc les concepteurs doivent s'assurer que la solution obtenue suite à une étape ne viole pas les hypothèses ou les contraintes d'une autre sous-étape complémentaire. La méthodologie de conception et de validation de produits structuraux, qui en a résulté suite à ce programme de recherche, a été appliquée en milieu industriel dans le but de prouver sa contribution au développement de ce type des produits. Un des gains les plus importants apportés par cette méthodologie c'est qu'on a réussi à réduire le nombre d'itérations au niveau de l'étape de validation expérimentale tout en assurant la rétroaction sur les besoins du client et sur les spécifications du produit. Cette réduction du nombre d'itération au niveau de la validation expérimentale sera transposée également dans une réduction du temps de validation. Finalement, suite à l'application de la nouvelle approche méthodologique, on a été en mesure de développer une composante structurale qui devrait respecter plusieurs critères à la fois et de déterminer d'une manière scientifique sa durée de vie tout en minimisant son surdimensionnement.
7

Girard, Pascale. "Validation partielle et développement d'un modèle de microclimat urbain". Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27403.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Bien que les grandes villes soient souvent synonymes d'inconfort thermique et de piètre qualité de l'air, une meilleure compréhension à petite échelle du climat urbain permettrait de mieux adapter villes et bâtiments aux réalités de ce climat particulièrement complexe. Dans cette optique, la présente étude contribue au développement d'un nouveau modèle de microclimat urbain QES. L'objectif de ce modèle est de simuler différentes variables météorologiques telles que les températures, les vents et le rayonnement, en 3D et à très petite échelle (~1 m). Pour ce faire, le modèle QES combine quatre modules, soit un module de vent (QUIC), un module de rayonnement (QESRadiant), un module de surface et un module de transport turbulent. De ces quatre modules, nous avons validé les modules de vent et de rayonnement et exploré un potentiel module de surface. Premièrement, la performance des modules de vent et de rayonnement a été évaluée en plusieurs points d'un domaine réel modélisé en 3D avec de la végétation et différents matériaux de surface. Les vitesses de vent simulées par QUIC et le rayonnement solaire incident simulé par QESRadiant ont été comparés à des observations à haute densité spatiotemporelle. Bien que les performances varient selon la position dans le domaine et les obstacles environnants, les deux modules permettent d'obtenir des résultats satisfaisants avec un temps de calcul de l'ordre de quelques minutes. Deuxièmement, un module de surface a été validé de manière préliminaire pour une surface plane simple et les flux de chaleur simulés ont été comparés aux flux observés. Les résultats obtenus soutiennent que le développement modèle QES s'avère une alternative intéressante aux modèles microclimatiques urbains existants dans l'optique où l'on s'efforce de simplifier les conditions frontières requises et de diminuer le coût de calcul informatique.
8

Blaud, Pierre Clément. "Développement d'un modèle de simulation de supercondensateur et validation expérimentale". Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1084/1/BLAUD_Pierre_Cl%C3%A9ment.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire disserte d’un modèle de supercondensateur pour un logiciel de simulation dans le domaine du génie électrique. Les logiciels de simulation sont incontournables dans la recherche et développement de nouveaux produits et procédés pour le génie. Le logiciel de simulation est le module SimPowerSystems (SPS) de Matlab/Simulink. Le choix pour répondre à la problématique s’est porté sur le modèle de Stern de la double couche électrique. Ce modèle a la particularité de modéliser la capacité entre une électrode en métal et un électrolyte liquide. Par la suite ce modèle est modifié pour être adapté dans le but de modéliser un supercondensateur et pour être programmé dans le logiciel de simulation. Le modèle développé est simple d’utilisation, les principales données nécessaires à son fonctionnement sont obtenues de la documentation du constructeur. Des essais expérimentaux de caractérisation puis de charge et décharge sont effectués sur des supercondensateurs pour être comparés avec les simulations. Les résultats obtenus sont concluants. L’erreur maximale entre les essais et les simulations est de 5% et en moyenne de 2% dans la plupart des autres cas.
9

Delage, Valérie. "Développement et validation d'un dosage immunoenzymométrique du récepteur des estrogènes". Lyon 1, 1997. http://www.theses.fr/1997LYO1T207.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Hermawan, Hendra. "Conception, développement et validation d'alliages métalliques dégradables utilisés en chirurgie endovasculaire". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26286/26286.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet de doctorat a permis pour la première fois de concevoir, réaliser et étudier le potentiel des matériaux métalliques biodégradables. En effet, le fer pur et les alliages de magnésium avaient été évalué entre 2001 et 2003 quant à la possibilité de devenir des biomatériaux dégradables. Ces travaux ont cependant montré que les propriétés mécaniques et du comportement en dégradation de ces alliages devaient être améliorées pour répondre aux besoins cliniques. Dans cette perspective, une série de nouveaux alliages du système Fe–Mn ont été élaborés et étudiés. L'objectif est d'obtenir des propriétés physiques et mécaniques similaires à celles de l'acier inoxydable 316L (SS316L) et un comportement à la dégradation mieux adapté à l’environnement physiologique humain que le fer pur et les alliages de magnésium. Quatre alliages de fer contenant 20 à 35% de manganèse ont été préparés par les techniques de la métallurgie des poudres, puis par la suite ils ont subi plusieurs cycles de laminage à froid et de frittage. Les résultats de ces travaux ont montré que la microstructure des alliages Fe–Mn est principalement composée d’une phase austénitique et de traces de phases martensitiques chez les alliages contenant moins de manganèse. Les alliages sont non–ferromagnétiques, leur susceptibilité magnétique étant inférieure à celle du SS316L. Contrairement au SS316L, cette susceptibilité magnétique demeure constante après écrouissage. Les propriétés mécaniques des alliages Fe–Mn approchent celles du SS316L. Leur limite d'élasticité diminue de 420 à 210 MPa et leur allongement à la rupture augmente de 5 à 32% quand la teneur en manganèse augmente de 20 à 35%. Pendant un essai in vitro, les alliages se dégradent par corrosion. Les produits de dégradation sont des couches d’hydroxydes de fer et de calcium/phosphore. Les taux de corrosion mesurés sont plus grands que celui du fer pur, mais plus faibles que celui de l’alliage de magnésium. Le relargage des ions de fer et de manganèse dans la solution est limité par les couches de produits de dégradation. Les essais de viabilité cellulaire ont montré que les alliages de Fe–Mn inhibent faiblement l’activité métabolique des fibroblastes. Tous ces éléments confirment le potentiel des alliages Fe–Mn pour la fabrication d’un biomatériau dégradable biocompatible.
This doctoral project permitted for the first time to design, develop and study metallic alloys as degradable biomaterials. Between 2001 and 2003, commercially pure iron and magnesium alloys were evaluated for their possibility to become degradable biomaterials. In those studies, it was found that their mechanical property and degradation behaviour were not clinically well suited. In this context, a series of Fe–Mn alloys was produced with the objective to obtain physical and mechanical properties similar to those of stainless steel 316L (SS316L) and degradation behaviour more suited in human physiological environment than pure iron and magnesium alloys. Four alloys with manganese content ranging between 20 and 35 wt% were prepared via a powder metallurgy route followed by a series of cold rolling and resintering cycles. Results showed that their microstructure was mainly composed of austenitic phase with the trace of martensitic phase in alloys having lower manganese content. This microstructure resulted into a nonmagnetic behaviour of the alloys with magnetic susceptibility lower than that of SS316L. In contrast to SS316L, this magnetic susceptibility remained constant after having plastic deformation. The alloys showed mechanical property approached to that of SS316L. As manganese content increased, the yield strength decreased from 420 to 210 MPa and the elongation increased from 5 to 32%. The alloys degraded in simulated coronary artery conditions by the mechanism of corrosion. Their average corrosion rate was faster than that of pure iron and slower than magnesium alloys. The degradation products constituted of iron hydroxides and calcium/phosphorus containing layers which adhered onto the substrate. The release of iron and manganese ions into the solution was limited by the insoluble degradation layer. The cell viability assays showed that the Fe–Mn alloys possess a low inhibition effect to fibroblast cells metabolic activities demonstrating their potentiality to be a biocompatible degradable biomaterial.
11

Houle, Jérôme. "Développement et validation du Schwartz Outcome Scale - 10 pour téléphone intelligent". Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28195.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La présente étude s’intéresse au développement et à la validation d’une version pour téléphone intelligent de la version française du Schwartz Outcome Scale – 10 (SOS-10F; Blais et coll., 1999; Laux et coll. 2006). Quarante-quatre participants recrutés dans la communauté universitaire de l’Université Laval ont rempli la version papier et la version pour téléphone intelligent du SOS-10F afin d’en évaluer l’équivalence. Les participants ont également rempli un questionnaire destiné à évaluer l’acceptabilité de la nouvelle mesure. L’accord entre les mesures tel qu’estimé était excellent (ICC = 0.98), suggérant que les deux versions du SOS-10F peuvent être utilisées de façon interchangeable. L’analyse de Bland-Altman suggère également que les différences obtenues entre les deux versions sont adéquates dans un contexte clinique. L’acceptabilité de la version pour téléphone intelligent était forte avec 86,4% des participants considérant cette version comme aussi ou plus facile d’utilisation que la version papier et 70,5% préférant autant ou plus cette version que la version papier. Cette étude suggère que la version pour téléphone intelligent du SOS-10F pourrait être utilisée de façon équivalente à la version papier, mais davantage de recherche sera nécessaire avant de le recommander dans un contexte clinique.
This study is about the development and validation of a smartphone version of the french-language translation of the Schwartz Outcome Scale – 10 (SOS-10F; Blais et coll., 1999; Laux et coll. 2006). Forty-four participants were recruited from the Université Laval community and completed both the paper and smartphone version of the SOS-10F in order to assess the agreement between the two. Participants also completed a questionnaire to evaluate the acceptability of the new instrument. The measured agreement between the two instruments was excellent (ICC = 0.98), suggesting that the two versions of the SOS-10F can be used interchangeably. A Bland-Altman analysis also suggests that the observed differences between the instruments were adequate for usage in a clinical setting. The acceptability of the smartphone version was high with 86,4% of participants saying this version was as easy or easier to use than the paper version and 70,5% preferring this version as much or more than the paper version. Results suggest that the smartphone version of the SOS-10F could be used interchangeably with the paper version, but more research is necessary before this version could be recommended in a clinical setting.
12

Vaudor, Geoffroy. "Atomisation assistée par un cisaillement de l'écoulement gazeux. Développement et validation". Rouen, 2015. http://www.theses.fr/2015ROUES024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'atomisation assistée permet de transformer un jet liquide en gouttes à l'aide d'un jet gazeux co-courant rapide. Ce procédé est mis en œuvre dans certains moteurs cryotechniques et systèmes de propulsion aéronautique. L'étude numérique de ces configurations est cependant difficile à réaliser en raison du fort cisaillement couplé au fort rapport de masse volumique entre les phases liquide et gazeuse qui rendent la plupart des solveurs instables dont le solveur ARCHER développé au CORIA. Des développements numériques sur la modélisation des termes convectifs, à partir des travaux de Rudman, ont été réalisés. L'idée conductrice est de rétablir la consistance entre le transport numérique de la masse et celui de la quantité de mouvement. La discrétisation proposée nécessite le transport de l'interface sur une grille duale. Cette méthode s'est avérée stable mais coûteuse numériquement. Une nouvelle discrétisation, permettant de s'affranchir de la seconde grille est proposée et validée sur différents cas tests. Des études expérimentales sur l'atomisation assistée ont été menées au laboratoire LEGI depuis de nombreuses années et les nouveaux schémas numériques implémentés au cours de ce travail ont permis la simulation numérique d'un film liquide cisaillé 2D et d'un jet coaxial liquide en 3D que l'on a comparés aux résultats expérimentaux
Assisted atomization enables to transform a liquid jet into drops using a co-flowing high-speed gas jet. This method is applied in cryogenic engines and aircraft propulsion systems. However, numerical study of these configurations is challenging, due to the high shearing associated with the high density ratio between the liquid and gaseous phases, which make most solvers unstable, including the ARCHER solver developed in CORIA laboratory. Numerical developments on the modeling of the convective term based on Rudman's work have been performed. The main idea is to re-establish the consistency between numerical mass and momentum transport. The original discretization requires moving the interface onto a dual grid. This method has proved to be stable but numerically costly. A new discretization which enables to get rid of the second grid is suggested and validated on different test cases. Experimental studies on assisted atomization have been carried out in LEGI laboratory for years and the new numerical scheme developed during these studies have enabled to simulate numerically a 2D sheared liquid film and a coaxial liquid jet in 3D, which have then been compared to the experimental results
13

Roux, Lauriane. "Développement et validation d’un modèle cellulaire de kératopathie associée à l’aniridie". Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC276.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’aniridie est une pathologie rare principalement due à des mutations hétérozygotes sur PAX6, le gène contrôlant le développement oculaire et le maintien de l’homéostasie cornéenne. Elle est caractérisée par une hypo/aplasie de l’iris, des atteintes de la rétine et du cristallin. La totalité des patients atteints développe aussi une kératopathie associée à l’aniridie (KAA), conduisant à une opacification progressive de leur cornée. La KAA a pour origine un déficit en cellules souches limbiques et diverses perturbations de l’épithélium et du stroma cornéens. Actuellement, il n’existe ni traitement pour soulager efficacement les patients, ni modèle cellulaire pour cette pathologie. Afin de pallier ces manques, le système CRISPR/Cas9 a été utilisé pour intégrer une mutation hétérozygote non-sens dans le gène PAX6 de cellules épithéliales limbiques immortalisées. Les cellules mutées présentent une expression réduite de PAX6 et une modulation de celle de ses gènes cibles, un ralentissement de la prolifération, de la clonogénicité et de la migration ainsi qu’une adhésion accrue. De plus, nous avons montré qu’un traitement de ces cellules avec une protéine recombinante PAX6, portant un peptide de pénétration cellulaire, permet une induction de l’expression endogène de PAX6 et également une restauration partielle du phénotype décrit précédemment. Cette réversion phénotypique valide le modèle d’haploinsuffisance développé et suggère l’implication de PAX6 dans les différentes fonctions restaurées. Les cellules mutées peuvent maintenant être utilisées pour le criblage d’outils thérapeutiques potentiels pour la KAA et pour d’autres défauts liés à une diminution du dosage de PAX6
Aniridia is a rare panocular disease mainly due to PAX6 heterozygous mutations. PAX6 is the master gene of the eye development and it controls also the corneal homeostasis maintenance. Aniridia is characterized by an iris hypo/aplasia, retina and lens defects. All the aniridia patients will also develop an aniridia-related keratopathy (ARK) leading to a progressive corneal opacification. ARK is due to a limbal stem cell deficiency and alterations of corneal epithelium and stroma functions. Unfortunately, there is currently no efficient treatment to relief the patients and no cellular model for this pathology. To remedy these lacks, CRISPR/Cas9 system was used to insert a nonsense mutation into PAX6 gene of immortalized limbal epithelial cells. The mutated cells produce less PAX6 than the wild-type and PAX6 targets gene expression was modulated. They also display a marked slow-down proliferation, clonogenicity, migration and an enhanced adhesion. Moreover, we have shown that addition of recombinant PAX6 protein fused to a cell penetrating peptide to the culture medium was able to activate the endogenous PAX6 expression and to rescue some phenotypic defects of the mutated cells. Therefore, it validates the PAX6 haploinsufficiency model and suggests that PAX6 could be involved in all the rescued functions. The mutated cells can now be used to screen potential therapeutic tools for ARK and for other defects due to low levels of PAX6
14

Balbastre, Yaël. "Développement et validation d’outils pour l’analyse morphologique du cerveau de Macaque". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS333/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La compréhension des mécanismes impliqués dans les maladies neurodégénératives ou développementales ainsi que la mise en place de nouvelles approches thérapeutiques reposent sur l’utilisation de modèles expérimentaux pertinents et de techniques d’imagerie adaptées. Dans ce contexte, l’IRM est un outil de choix pour l’exploration anatomique in vivo dans la mesure où elle permet d’effectuer un suivi longitudinal. Le succès translationnel des thérapies du laboratoire au patient repose sur une bonne caractérisation des modèles et une continuité des biomarqueurs utilisés. Or, si l'IRM est disponible en préclinique et en clinique, les outils d'analyse sont peu « génériques ». Au cours de cette thèse, en s'inspirant des travaux menés chez l'Homme, nous avons développé et validé des outils automatiques de segmentation des structures neuroanatomiques chez le Macaque. La méthode proposée repose sur la mise en registre avec l'IRM du sujet d'un atlas digital probabiliste suivi de l'optimisation d'un modèle statistique par mélanges de gaussiennes et champs aléatoires de Markov. Elle a été validée chez un ensemble de sujets sains adultes puis mise en application dans le contexte du développement néonatal normal du cerveau. Afin de poser les bases d'une évaluation permettant une comparaison des biomarqueurs IRM avec les biomarqueurs post mortem de référence, nous avons également mis au point une chaîne de traitement permettant la reconstruction 3D de volumes histologiques du cerveau de Macaque et l'avons appliqué à la caractérisation du contraste IRM au cours d'une greffe de cellules souches après lésion excitotoxique
Understanding the mechanisms involved in neurodegenerative or developmental diseases and designing new therapeutic approaches are based on the use of relevant experimental models as well as appropriate imaging techniques. In this context, MRI is a prominent tool for in vivo investigation as it allows for longitudinal follow-up. Successful translation from bench to bedside calls for well-characterized models as well as transferable biomarkers. Yet, despite the existence of both clinical and preclinical scanners, analysis tools are hardly translational. In this work, inspired by standards developed in Humans, we've built and validated tools for the automated segmentation of neuroanatomical structures in the Macaque. This method is based on the registration of a digital probabilistic atlas followed by the fitting of a statistical model consisting of a gaussian mixture and Markov random fields. It was first validated in healthy adults and then applied to the study of neonatal brain development. Furthermore, to pave the way for comparisons with gold standard post mortem biomarkers, we developed a pipeline for the automated 3D reconstruction of histological volumes that we applied to the characterization of MRI contrast in a stem-cell graft following an excitotoxic lesion
15

Devillard, Xavier. "Développement et validation d'un ergomètre pour fauteuil roulant : spécificités et capacités du VP100H®". Saint-Etienne, 2001. http://www.theses.fr/2001STET006T.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Si l'intérêt de l'évaluation des personnes déficientes motrices n'est plus à démontrer, les outils permettant l'évaluation des capacités physiologiques, biomécaniques et technologiques de toute personne se déplaçant en fauteuil roulant, ne sont pas toujours disponibles. Au regard des études de la littérature et des nombreuses difficultés rencontrées lors de l'évaluation, vis-à-vis de la précision et de la validité des résultats, la nécessité de développer un ergomètre pour fauteuil roulant, s'est donc faite sentir. Le VP100H est le premier ergomètre présentant la particularité de pouvoir étudier l'ensemble des paramètres de la propulsion en fauteuil roulant du fait de sa conceptualisation. En effet, le principe de rouleaux reliés à un frein électromagnétique permet de tester tous les individus, faibles ou sportifs, quel que soit leur fauteuil roulant, et dans des conditions proches de celles retrouvées lors de la propulsion sur le terrain. Les différentes études de validation, de comparaison avec d'autres ergomètres et d'étude de population, ont montré que le VP100H est un outil d'évaluation valide, reproductible et précis pouvant être utilisé avec simplicité au cours des tâches d'évaluation mais également d'entraînement ou de reconditionnement physique des personnes en fauteuil roulant. Un brevet d'invention a été déposé sous le nom suivant : Dispositif pour l'entraînement et la mesure d'efforts physiques d'une personne en véhicule roulant non motorisé, 25 novembre 1996, brevet n°14727.
16

Lamy, Jérôme. "Développement et validation de biomarqueurs quantitatifs d'imagerie cardiaque : association entre structure et fonction myocardique". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS045/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les maladies cardiovasculaires, qui restent l’une des premières causes de mortalité dans le monde, sont le résultat d’altérations interdépendantes de la structure et de la fonction cardiaque couplées aux effets aggravants des maladies métaboliques, du vieillissement et du mode de vie. Dans ce contexte, l’objectif de ma thèse est de proposer et de valider de nouveaux biomarqueurs quantitatifs en imagerie cardiaque, robustes et rapides, pour l’étude de la fonction et de la structure myocardiques ainsi que de leurs liens. Un premier travail a été consacré au développement d’une méthode d’évaluation de la fonction cardiaque, plus précisément de la cinétique de déformation du myocarde sur toutes les cavités cardiaques à partir d’images standards d’IRM ciné. La méthode développée s’est montrée reproductible avec une capacité diagnostique supérieure aux indices cliniques conventionnels. Elle était aussi capable de détecter des altérations cardiaques infra-cliniques liées à l’âge. Le second travail présenté est le développement d’une méthode de quantification de la graisse atriale, à partir d’images de scanner tomodensitométrique, suivi de son évaluation sur une cohorte de sujets sains et de sujets atteints de fibrillation atriale. Finalement, l’interaction entre les paramètres myocardiques structurels et fonctionnels a été étudiée au travers de la première validation chez l’homme de la littérature IRM de la fonction de déformation cardiaque, évaluée avec notre méthode, face à la quantification histologique du substrat tissulaire « graisse-fibrose »
Cardiovascular diseases, which are still one of the leading causes of death worldwide, are the result of interdependent alterations of the heart structure and function coupled with the aggravating effects of metabolic diseases, aging and lifestyle. In this context, the goal of my thesis is to design and validate new, robust and fast cardiac imaging quantitative biomarkers to characterize myocardial function and structure as well as their relationships. A first work was focused on the development of a method to evaluate cardiac function, specifically myocardial deformation kinetics on all cardiac chambers from standard cine MRI images. The designed method was reproducible and its diagnostic ability was superior to conventional clinical indices. It was also able to detect subclinical age-related heart alterations. The aims of the second study were to develop a method for atrial fat quantification, based on CT images, and to evaluate it on a cohort of healthy subjects and patients with atrial fibrillation. Finally, the interaction between structural and functional myocardial indices was studied through the first in vivo validation in the MRI literature of cardiac deformation function, evaluated using our method, against histological quantification of the “fibro-fatty” tissue substrate
17

Lamy, Jérôme. "Développement et validation de biomarqueurs quantitatifs d'imagerie cardiaque : association entre structure et fonction myocardique". Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS045.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les maladies cardiovasculaires, qui restent l’une des premières causes de mortalité dans le monde, sont le résultat d’altérations interdépendantes de la structure et de la fonction cardiaque couplées aux effets aggravants des maladies métaboliques, du vieillissement et du mode de vie. Dans ce contexte, l’objectif de ma thèse est de proposer et de valider de nouveaux biomarqueurs quantitatifs en imagerie cardiaque, robustes et rapides, pour l’étude de la fonction et de la structure myocardiques ainsi que de leurs liens. Un premier travail a été consacré au développement d’une méthode d’évaluation de la fonction cardiaque, plus précisément de la cinétique de déformation du myocarde sur toutes les cavités cardiaques à partir d’images standards d’IRM ciné. La méthode développée s’est montrée reproductible avec une capacité diagnostique supérieure aux indices cliniques conventionnels. Elle était aussi capable de détecter des altérations cardiaques infra-cliniques liées à l’âge. Le second travail présenté est le développement d’une méthode de quantification de la graisse atriale, à partir d’images de scanner tomodensitométrique, suivi de son évaluation sur une cohorte de sujets sains et de sujets atteints de fibrillation atriale. Finalement, l’interaction entre les paramètres myocardiques structurels et fonctionnels a été étudiée au travers de la première validation chez l’homme de la littérature IRM de la fonction de déformation cardiaque, évaluée avec notre méthode, face à la quantification histologique du substrat tissulaire « graisse-fibrose »
Cardiovascular diseases, which are still one of the leading causes of death worldwide, are the result of interdependent alterations of the heart structure and function coupled with the aggravating effects of metabolic diseases, aging and lifestyle. In this context, the goal of my thesis is to design and validate new, robust and fast cardiac imaging quantitative biomarkers to characterize myocardial function and structure as well as their relationships. A first work was focused on the development of a method to evaluate cardiac function, specifically myocardial deformation kinetics on all cardiac chambers from standard cine MRI images. The designed method was reproducible and its diagnostic ability was superior to conventional clinical indices. It was also able to detect subclinical age-related heart alterations. The aims of the second study were to develop a method for atrial fat quantification, based on CT images, and to evaluate it on a cohort of healthy subjects and patients with atrial fibrillation. Finally, the interaction between structural and functional myocardial indices was studied through the first in vivo validation in the MRI literature of cardiac deformation function, evaluated using our method, against histological quantification of the “fibro-fatty” tissue substrate
18

Lagacé, Pierre-yves. "Développement et validation d’une méthode d’évaluation destranslations glénohumérales 3d sous EOS(mc)". Thesis, Paris, ENSAM, 2012. http://www.theses.fr/2012ENAM0059/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse morpho-fonctionnelle précise de l'épaule, notamment au niveau de l'articulation glénohumérale (GH), permettrait d'améliorer notre compréhension des dysfonctions de l'épaule associées aux ruptures de la coiffe des rotateurs. Cependant, des difficultés techniques compliquent l'analyse de la morphologie et du mouvement de l'épaule dans un contexte clinique. Dans le cadre de la présente thèse, une méthode d'analyse 3D des translations GH basée sur l'acquisition de séquences de radiographies biplanes sous EOS™ a été développée. Une étude pilote sur 10 sujets sains a d'abord permis de vérifier la facilité d'application d'un protocole d'acquisition des images et d'évaluer la répétabilité de l'identification des repères anatomiques de l'épaule sur les radiographies. La méthode proposée en dernier lieu permet, suite à l'acquisition de radiographies, de reconstruire un modèle personnalisé morpho-réaliste de la scapula et un modèle simplifié de l'humérus. Ces modèles sont ensuite recalés interactivement sur les images acquises à différentes positions du bras et utilisés pour décrire les translations GH à ces positions. La méthode a été validée en termes de précision et de répétabilité sur des images acquises d'épaules cadavériques et de patients ayant des ruptures de la coiffe des rotateurs. La dernière partie du travail présenté ici consiste à appliquer la méthode développée à 30 sujets (25 patients et 5 sujets sains) pour lesquels l'état de la coiffe des rotateurs et la fonction de l'épaule ont été évalués, puis à étudier les corrélations entre les translations GH et la fonction de l'épaule
Precise morpho-functional analysis of the shoulder, including of the glenohumeral (GH) joint, would allow improving our understanding of shoulder dysfunction associated to rotator cuff tears. However, technical difficulties make analysis of shoulder morphology and motion difficult in a clinical setting. The work carried out during this thesis allowed developing a method for 3D analysis of GH translations relying on the acquisition of sequences of biplanar radiographs with the EOS™ system. A pilot study carried out on 10 healthy subjects allowed verifying the ease of application of an image acquisition protocol and evaluating the repeatability of shoulder landmark identification on the radiographs. The final proposed method allows, following the acquisition of radiographs, obtaining a personalized morphologically realistic reconstruction of the scapula and a simplified model of the humerus. These models are then interactively registered to the images acquired at different arm positions and used to describe GH translations for these positions. The proposed method was validated in terms of precision and repeatability on images acquired of cadaveric shoulders and of patients with rotator cuff tears. The last part of the work presented here consists in applying the developed method to 30 subjects (25 patients and 5 asymptomatic subjects) for whom rotator cuff condition and shoulder function were assessed, and to study correlations between GH translations and shoulder function
19

Vallet, Maëva. "Développement d’un système d’imagerie photoacoustique : Validation sur fantômes et application à l’athérosclérose". Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0086/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’imagerie photoacoustique est une nouvelle modalité couplant imagerie optique et échographie. Non invasive, elle permet d’imager des absorbeurs optiques à quelques centimètres de profondeur et avec la résolution de l’échographie. La réception des signaux photoacoustiques se faisant à l’aide d’un échographe clinique, cette modalité hybride vient compléter idéalement l’imagerie ultrasonore en apportant des informations fonctionnelles aux informations structurelles de l’échographie. Ces atouts en font une technique d’imagerie très prometteuse pour la clinique, notamment comme outil de diagnostic précoce. Ce travail de thèse a pour objectif principal la mise en place des outils nécessaires au développement de cette thématique de recherche d’un point de vue expérimental, à des fins cliniques. En particulier, l’apport de l’imagerie photoacoustique pour le diagnostic de plaques d’athérome vulnérables est investigué sur fantômes, grâce à un protocole original. Pour cela un système d’imagerie photoacoustique a été développé et caractérisé à l’aide de fantômes bimodalités élaborés spécifiquement pour les différentes études présentées. Gardant à l’esprit le transfert de cette technique en clinique, un échographe clinique de recherche est utilisé et différentes spécificités du banc nécessaires à l’imagerie in vivo et au diagnostic médical ont été investiguées. Cela implique une amélioration des performances de détection du signal photoacoustique, notamment en termes de sensibilité et de contraste. Pour cela, une nouvelle technologie de sondes ultrasonores est évaluée en la comparant aux sondes actuellement utilisées. De plus, une excitation multispectrale permet l’identification de différents éléments présents dans les tissus. L’aspect temps-réel de l’échographie fait de cette modalité une des plus utilisées pour le diagnostic clinique. Par conséquent, une imagerie photoacoustique voire bimodale en temps réel présente un réel atout pour son transfert clinique. Cette possibilité est investiguée sur le système mis en place au cours de la thèse grâce à un échographe de recherche et une étude sur fantômes. Enfin, une autre contribution de ce travail concerne l’apport de l’imagerie photoacoustique à la caractérisation de la vulnérabilité de la plaque d’athérome. Cette indication de vulnérabilité est obtenue en déterminant la composition de la plaque, en particulier en termes de lipides. L’imagerie photoacoustique, couplée à l’échographie, peut permettre cette identification. Pour étudier cette possibilité, nous nous sommes intéressés à l’artère carotide pour son accessibilité et la place qu’elle occupe dans le diagnostic de la plaque d’athérome en échographie et échographie Doppler. Un protocole original a été élaboré afin d’apporter l’excitation optique au plus près de la carotide. La faisabilité de cette approche est investiguée sur un fantôme conçu spécifiquement pour cette étude et les résultats préliminaires sont présentés
Photoacoustic (PA) imaging is a new imaging modality coupling ultrasound and optical imaging. This non-invasive technique achieves a penetration depth up to several centimeters with optical contrast and ultrasound resolution. Moreover, since PA signals are detected with a US scanner, PA imaging ideally complete US imaging, adding functional information to the structural ones brought by echography. Therefore PA imaging looks very promising, specifically as a clinical early diagnosis tool. The main objective of this thesis is to set up the required tools to develop the experimental investigation for this research topic and, in particular, to apply it to the diagnosis of vulnerable atheroma plaques. A PA imaging system has been set up and characterized using specifically designed bimodal phantoms. Additional studies have been made to evaluate the suitability of this imaging platform for clinical imaging. For example, in vivo imaging requires better signal detection in terms of contrast and sensitivity, achieved thanks to a new probe technology, and the identification of tissue composition using a multispectral optical excitation. Finally, PA and even PAUS real time imaging is a real asset for medical diagnosis that has been investigated. Another contribution of this work is the use of PA imaging to characterized atheroma plaques vulnerability with the detection of lipids inside these plaques. PA imaging, coupled to echography, can address this need. To study this possibility, the carotid artery has been considered and a new protocol has been elaborated to bring the optical excitation very close to this artery. A feasibility study has been realized on a specific phantom and the preliminary results are presented
20

Racicot, Pierre. "Pour un nouveau modèle de développement, le développementisme : conceptualisation et validation empirique". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq25450.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Lagacé, Pierre-Yves. "Développement et validation d’une méthode d’évaluation des translations glénohumérales 3D sous EOS". Mémoire, École de technologie supérieure, 2013. http://espace.etsmtl.ca/1142/1/LAGAC%C3%89_Pierre%2DYves.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les pertes de fonction de l’épaule associées à des pathologies de la coiffe des rotateurs sont très fréquentes et peuvent être très handicapantes pour les gens affectés. Par exemple, des actions de la vie quotidienne aussi simples que se laver les cheveux ou prendre un verre dans une armoire peuvent devenir extrêmement douloureuses ou être même impossibles à réaliser. Bien qu’il existe des outils fiables pour le diagnostic des pathologies aux tissus mous de l’épaule, ceux-ci ne permettent pas d’expliquer adéquatement la gravité des symptômes leur étant associés. En effet, on constate que certains patients présentant des ruptures massives de la coiffe des rotateurs maintiennent une bonne fonction dans la vie de tous les jours, alors que d’autres présentant des blessures mineures, souffrent d’importantes pertes de fonction. Une meilleure compréhension des mécanismes impliqués dans les pertes de fonction de l’épaule permettraient d’améliorer le diagnostic et la prise en charge des patients. Certaines études suggèrent que le déplacement du centre de la tête humérale par rapport à la glène (les translations gléno-humérales, GH) pourrait être corrélé aux pertes de fonction de l’épaule en présence de ruptures de la coiffe des rotateurs. Cependant, à cause des limitations techniques au niveau des méthodes d’analyse des translations GH, peu d’études se sont penchées sur la question en détail. C’est dans ce contexte que s’inscrit cette thèse : les objectifs principaux sont de développer et de valider une méthode d’analyse des translations GH et de vérifier l’existence d’une corrélation entre les translations GH et la fonction de l’épaule chez un groupe de patients avec rupture de la coiffe des rotateurs. À cette fin, nous avons développé une méthode d’analyse des translations GH reposant sur l’acquisition de séquences de radiographies biplanes à l’aide du système EOS™. La première partie du travail présentée ici consiste à développer un protocole d’acquisition des radiographies en pseudo-cinématique et à évaluer la répétabilité de l’identification de repères anatomiques de l’épaule sur les radiographies. La méthode d’évaluation des translations GH développée en dernier lieu permet, suite à l’acquisition des radiographies et à la numérisation de repères anatomiques répétables, de reconstruire un modèle personnalisé morpho-réaliste de la scapula du sujet et un modèle simplifié de l’humérus. Ces modèles sont ensuite recalés interactivement à l’ensemble des positions imagées et utilisés pour décrire les translations GH entre ces positions. La validation de la méthode sur 10 scapulas sèches, 5 épaules cadavériques et 5 patients a démontré que les translations GH pouvaient être évaluées avec une précision de l’ordre de 2 mm. L’application de la méthode à 25 patients ayant des ruptures de la coiffe des rotateurs et 5 sujets sains n’a pas permis d’établir de lien clair entre les translations GH et la fonction de l’épaule, mais a tout de même permis d’identifier certaines corrélations entre l’amplitude des translations GH et différents aspects de la fonction de l’épaule, principalement chez les femmes. Cette thèse aura donc permis de réaliser des avancements majeurs tant d’un point de vue technique que scientifique. Tout d’abord, le travail réalisé a permis de développer une méthode d’analyse morpho-fonctionnelle de l’épaule en 3D, précise, et peu invasive. Celle-ci pourra être exploitée en clinique ou dans le cadre d’études morphologiques de l’épaule ou de la pseudo-cinématique de la scapula. Ensuite, cette thèse propose également un marqueur radiologique de la fonction de l’épaule, les translations GH. Ainsi, le travail réalisé représente un pas de plus dans l’étude morpho-fonctionnelle de l’épaule, qui permettra sans aucun doute d’améliorer notre compréhension de l’épaule pathologique, et à terme, l’amélioration du diagnostic et de la prise en charge des patients souffrant de douleurs à l’épaule, et ainsi à l’amélioration de leur qualité de vie.
22

Selma, Brahim. "Contribution aux écoulements complexes gaz-liquide développement et validation d'un modèle mathématique". Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1932.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This study describes the development and validation of Computational Fluid Dynamics (CFD) model for the simulation of dispersed two-phase flows taking in the account the population balance of particles size distribution. A two-fluid (Euler-Euler) methodology previously developed for complex flows is adapted to the present project. The continuous phase turbulence is represented using a two-equation k ? [epsilon] turbulence model which contains additional terms to account for the effects of the dispersed on the continuous phase turbulence and the effects of the gas-liquid interface. The inter-phase momentum transfer is determined from the instantaneous forces acting on the dispersed phase, comprising drag, lift, virtual mass and drift velocity. These forces are phase fraction dependent and in this work revised modelling is put forward in order to capture a good accuracy for gas hold-up, liquid velocity profiles and turbulence parameters. Furthermore, a correlation for the effect of the drift velocity on the turbulence behaviour is proposed. The revised modelling is based on an extensive survey of the existing literature. The conservation equations are discretised using the finite-volume method and solved in a solution procedure, which is loosely based on the PISO algorithm. Special techniques are employed to ensure the stability of the procedure when the phase fraction is high or changing rapidely [61]. Finally, assessment of the model is made with reference to experimental data for gas-liquid bubbly flow in a rectangular bubble column [133; 134; 135; 18], in a double-turbine stirred tank reactor [126; 127] and in an air-lift bioreacator [101].
23

Parcel, Régis. "Développement et validation initiale du questionnaire de honte de la vulnérabilité masculine". Thèse, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/2825.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La honte est une émotion douloureuse impliquant une autoévaluation négative et globale du soi, et entraînant un désir de fuir ou de se cacher. Selon certains auteurs, la honte occupe une place importante dans la vie de plusieurs hommes, notamment en contexte de demande d'aide thérapeutique.La présente étude s'intéresse à la honte vécue par certains hommes lorsqu'ils dérogent aux différentes normes comportementales qui leur ont été inculquées. Une revue de la documentation traitant de la mesure de la honte a été réalisée et montre que si plusieurs instruments sont disponibles, la plupart d'entre eux mesurent la honte de façon indifférenciée à l'égard du sexe. Pour pallier à cette lacune, et en s'inspirant de la documentation sur l'idéologie masculine et sur les tensions qui en découlent, un nouvel instrument de mesure de la propension à la honte (le Questionnaire de honte de la vulnérabilité masculine; QHVM) a été développé et cible la honte ressentie dans divers contextes perçus par les hommes comme étant menaçants à l'égard de leur identité masculine. Puisque la culpabilité s'apparente à la honte en plusieurs points, une mesure conjointe de la honte et de la culpabilité a été privilégiée pour s'assurer d'un processus de validation initiale rigoureux.La validité factorielle de l'instrument a été explorée à l'aide d'une série d'analyses en composantes principales.La version abrégée du Test of Self-Conscious Affect-3 (Tangney, Dearing, Wagner, Crowley & Gramzow, 2000) et le Gender Role Conflict Scale (O'Neil, Helms, Gable, David & Wrightsman, 1986) ont été retenus afin d'explorer la validité convergente et discriminante du QHVM.La version abrégée du Attitudes Toward Seeking Professionnal Psychological Help Scale (Fischer & Farina, 1995) et une adaptation du Barriers to Help Seeking Scale (Mansfield, Addis & Courtenay, 2005) ont été sélectionnées afin d'explorer la validité prédictive du QHVM.La cueillette de données a été réalisée auprès de 733 étudiants de niveau collégial et universitaire, de même qu'auprès de 45 hommes utilisant les services d'organismes oeuvrant auprès des hommes. Les résultats révèlent une structure factorielle stable composée de trois facteurs (1- Honte d'une atteinte au statut de masculinité, 2- Honte de l'homosexualité, 3- Honte des comportements affectueux entre hommes) et une fidélité variant de bonne à adéquate. Les résultats montrent par ailleurs que le QHVM possède une bonne validité convergente et discriminante. Enfin, les résultats montrent que le QHVM possède une certaine validité prédictive et indiquent que la honte agissant à titre de frein à la demande d'aide chez les hommes semble davantage une honte"masculine", c'est-à-dire enracinée dans le développement de leur identité de genre et vécue en situation d'atteinte à leur virilité. Si d'autres études sont recommandées afin d'évaluer la validité factorielle, convergente et prédictive du QHVM, ce dernier s'avère un instrument pertinent pour l'étude de la honte chez les hommes et possède de bonnes propriétés psychométriques.
24

Nguyen, Trong Hoan. "Développement et validation d'une méthode analytique de prévision de l'érosion de cavitation". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le present travail est consacre au developpement et a la validation d'une technique de prevision de l'erosion par cavitation. La premiere etape consiste a caracteriser par une methode semi-empirique l'agressivite hydrodynamique de l'ecoulement cavitant. Celle-ci basee d'une part sur la realisation d'essais de marquage et d'autre part sur la mesure in-situ des surpressions instantanees responsables de l'erosion. Des capteurs de pression ont ete realises specifiquement pour cette application a partir de films piezoelectriques en polyfluorure de vinylidene. Deux methodes d'etalonnage dynamique ont ete mises en uvre et une technique de traitement du signal a ete developpee. La deuxieme etape consiste a analyser la reponse du materiau a cette agressivite en vue d'estimer la perte de masse. Le materiau est ici caracterise par ses proprietes mecaniques classiques et des caracteristiques metallurgiques d'ecrouissage. L'ensemble de la methode est appliquee au cas de l'erosion produit dans une boucle a mercure. Une partie du travail est egalement consacree a l'analyse de l'effet d'un changement d'echelle geometrique sur le phenomene d'erosion par cavitation
25

Zeghal, Slim. "Simulation dynamique de la polymérisation du styrène : développement et validation de modèles". Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0225.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent travail porte sur la simulation dynamique d'une partie d'un atelier industriel de polymérisation de styrène à l'aide du logiciel SPEEDUP. L'objectif est de réaliser des modèles de connaissance des différentes opérations unitaires du procédé, d'identifier les paramètres importants pour la simulation effectuée, de reproduire le comportement dynamique réel de l'installation, d'évaluer les difficultés de mise en œuvre d'une telle procédure et de donner un avis sur l'intérêt, l'utilisation et les applications du simulateur généralisé utilisé. On peut donc affirmer que la réalisation d'une simulation dynamique réaliste par modèles de connaissance d'un atelier industriel est une tache laborieuse. Elle se heurte, non pas à des difficultés conceptuelles, mais au problème de la collecte d'informations. Elle s'avère alors être un moyen intéressant d'analyse du procédé. Elle pose en particulier le problème d'évaluation des retards et du niveau de détail de définition de la structure de contrôle, absente de la simulation statique. La simulation dynamique pose encore quelques difficultés numériques qui peuvent parfois être résolues par une remise en cause de la modélisation pour les problèmes d'indice de nilpotence ou par la méthodologie qui est reprise dans le mémoire, pour les problèmes d'initialisation. En ce qui concerne les logiciels, SPEEDUP tend dans ce domaine à s'ériger en standard. C'est un logiciel puissant numériquement, relativement facile à utiliser, un peu plus difficile à faire converger, mais dont le handicap à une diffusion plus large reste sans aucun doute son interface utilisateur.
26

Bonnin, Anne-Sophie. "Développement et validation expérimentale de procédures de tests dynamiques des systèmes d’emballage". Thesis, Reims, 2021. http://www.theses.fr/2021REIMS001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi leurs nombreuses fonctions, la protection du produit est le principal rôle des systèmes d’emballage. Ils doivent alors résister aux différentes contraintes apparaissant au cours des circuits de distribution. Parmi ces contraintes se distinguent les phénomènes de vibrations aléatoires et les phénomènes transitoires. Ce travail de thèse propose une contribution à l’analyse de ces phénomènes ainsi qu’une amélioration de leur simulation en laboratoire d’essai. Les vibrations aléatoires correspondant à des signaux de processus non gaussiens, il a été proposé une procédure de décomposition de leur distribution en somme de Gaussiennes pondérées. Cette décomposition appliquée à un enregistrement de transport réel permet d’obtenir une distribution des niveaux d’accélération quasiment identique à la réalité et ce avec les moyens de test actuels. Cette méthode a été appliquée au calcul de dommage sur un système d’emballage académique. L’étude des phénomènes transitoires et leur simulation ont été menées à l’aide des spectres de réponse au choc (SRC). Une différence de répartition fréquentielle est constatée entre les signaux excitation et réponse d’un système soumis à deux évènements transitoires de même SRC. L’intégrité d’un système d’emballage subissant des chocs a été étudiée à partir d’une courbe γ-N adaptée permettant d’estimer le dommage généré par un évènement transitoire. Ces résultats, obtenus expérimentalement et par simulation numérique, demanderont à l’avenir d’être confirmés en les appliquant à la caractérisation de différents systèmes d’emballage
Among their many functions, product protection is the main role of packaging systems. They must then withstand the various constraints occurring throughout distribution networks. Among these constraints are random vibration phenomena and transient phenomena. This thesis work proposes a contribution to the analysis of these phenomena as well as an improvement of their simulation in test laboratories. As random vibrations correspond to non-Gaussian process signals, a procedure of decomposition of their distribution into a sum of weighted Gaussian has been proposed. When applied to a real transport record and with the current test equipment, this decomposition provides a distribution of acceleration levels almost identical to the actual distribution. This method has been applied to the damage calculation of an academic packaging system. The study of transient phenomena and their simulation were conducted using the shock response spectra (SRS). There is a difference in frequency distribution between the excitation signal and the response signal of a system subjected to two transient events of same SRS. The wholeness of a shock-sustaining packaging system has been studied from an adapted γ-N curve which enables the estimation of damage caused by a transient event. In the future these results, obtained experimentally and by a numerical simulation, will require to be confirmed by applying them to the characterization of different packaging systems
27

Lemyre, Alexandre. "Développement et validation d'une théorie de la fonction adaptative biologique des rêves". Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69661.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Plusieurs fonctions ont été attribuées aux rêves. Les revues de documentation existantes qui abordent les théories de la fonction des rêves ne sont pas exhaustives et sont souvent peu critiques. L'introduction de la présente thèse comble ce manque dans la documentation scientifique en offrant une revue critique des théories contemporaines de la fonction des rêves. À la lumière de cette introduction, il apparaît que les théories existantes présentent toutes des limites importantes. Le premier chapitre de cette thèse est un article présentant une nouvelle théorie de la fonction des rêves : la théorie de préactivation des sentiments par les rêves, ou Feeling Priming Theory (FPT). Selon la FPT, la fonction du rêve est de favoriser la motivation à éviter les événements anticipés aversifs et à approcher les événements anticipés gratifiants. Plus précisément, il est suggéré qu'une composante des émotions anticipées – les sentiments anticipés (anticipated feelings) – est reproduite dans les rêves. Au réveil et durant la journée, ces sentiments anticipés demeureraient (pré)activés en mémoire. Conséquemment, les émotions anticipées exerceraient une plus grande influence sur les comportements d'évitement et d'approche, à la fois directement, mais surtout indirectement par le biais des sentiments vécus par anticipation (anticipatory feelings; c.-à-d., les sentiments de peur ou d'espoir/de désir). Le deuxième chapitre de cette thèse est un article présentant le développement et l'utilisation d'un protocole visant à tester des hypothèses de la FPT. Soixante-quatre participants ont rempli un journal de bord à la maison pendant une période comprenant deux jours pour lesquels au moins un rêve était rappelé. Les données ont été recueillies immédiatement après le lever, après la routine du lever et avant la routine du coucher. Les participants ont rapporté les événements qu'ils anticipent, leur degré de peur et de désir face aux événements anticipés, leur contrôle perçu sur les événements anticipés, leurs comportements et leurs décisions par rapport aux événements anticipés, la mesure dans laquelle ils ont pensé aux événements anticipés, et finalement, la similitude entre leurs sentiments anticipés (anticipated feelings) et leurs sentiments vécus en rêve (dream feelings). Les résultats montrent que la peur ressentie envers un événement anticipé aversif prédit positivement la probabilité que le sentiment anticipé négatif associé à cet événement soit reproduit dans un rêve. Ressentir ce sentiment négatif dans un rêve prédit positivement la peur ressentie envers l'événement anticipé aversif le jour suivant, qui à son tour prédit positivement la survenue d'un comportement d'évitement. Les résultats suggèrent également que le désir ressenti envers un événement anticipé gratifiant prédit positivement la probabilité que le sentiment anticipé positif associé à cet événement soit reproduit dans un rêve. Cependant, ressentir ce sentiment positif dans un rêve ne prédit pas le désir ressenti envers cet événement anticipé gratifiant le jour suivant. Dans l'ensemble, les résultats de l'étude de validation appuient partiellement la FPT. La conclusion de la présente thèse expose les forces et les limites de la théorie développée et de l'étude de validation. À la lumière de ces forces et limites, des pistes de recherche futures sont proposées. Plus spécifiquement, il est suggéré que la FPT pourra servir d'ancrage pour le développement d'une théorie cognitive de la production des rêves. Des suggestions sont également offertes pour une étude en laboratoire visant à répliquer, dans un milieu contrôlé, le protocole utilisé pour l'étude de validation. Finalement, la possibilité de développer un nouveau traitement psychologique pour les cauchemars chroniques sur la base de la FPT est abordée. En résumé, cette thèse est un apport majeur à la documentation scientifique sur les rêves. Elle comporte une revue critique des théories contemporaines de la fonction des rêves, propose une nouvelle théorie de la fonction des rêves qui constitue une alternative aux théories de la régulation émotionnelle par les rêves, rapporte les résultats d'une étude visant à tester les principales hypothèses de la théorie proposée, et démontre la pertinence des travaux menés pour le développement de projets de recherche théorique, empirique, et clinique.
Several functions have been attributed to dreaming. Existing literature reviews on the theories of the function of dreaming are not exhaustive and contain few criticisms. The introduction of this thesis fills this gap in the literature by offering a critical review of contemporary theories of the function of dreaming. In light of this introduction, all existing theories present important limitations. The first chapter of this thesis is an article presenting a new theory of the function of dreaming: the Feeling Priming Theory (FTP). According to the FPT, the function of dreaming is to favor the motivation to avoid aversive anticipated events and to approach gratifying anticipated events. More specifically, it is suggested that a component of anticipated emotions – anticipated feelings – is reproduced in dreams. Upon awakening and during the day, these anticipated feelings would remain (pre)activated (primed) in memory. Consequently, anticipated emotions would exert a greater influence on avoidance and approach behaviors, mainly through an increase in the intensity of anticipatory feelings (i.e., feelings of fear or hope/desire). The second chapter of this thesis is an article presenting the development and use of a protocol aimed at testing hypotheses from the FPT. Sixty-four participants completed a logbook at home for a period that included two days with dream recall. Data were collected after waking up, after the morning routine, and before the bedtime routine. Participants reported their anticipated events, their degree of fear, desire and control over the anticipated events, the behaviors and decisions they adopted in relation to the anticipated events, the extent to which they thought about the anticipated events, and the similarity between their anticipated feelings and their dream feelings. The hypotheses were tested using linear and binary logistic mixed models. Fear toward an aversive anticipated event positively predicts the probability that the negative anticipated feeling associated with this anticipated event be reproduced in a dream. Experiencing this negative feeling in a dream positively predicts fear toward the aversive anticipated event on the next day, which in turn positively predicts the occurrence of an avoidance behavior. Furthermore, desire toward a gratifying anticipated event positively predicts the probability that the positive anticipated feeling associated with this anticipated event be reproduced in a dream. However, experiencing this positive feeling in a dream does not predict desire toward the gratifying anticipated event on the next day. Overall, the results from the validation study support part of the FPT. The conclusion of this thesis reviews the strengths and limitations of the proposed theory and the validation study. In the light of these strengths and limitations, potential avenues of research are explored. It is suggested that the FPT could serve as a basis for the development of a cognitive theory of dream production. Moreover, the empirical study could be replicated in a laboratory setting, which would allow to test the FPT in a controlled environment. Finally, the possibility of developing a new psychological treatment for nightmares based on the FPT is discussed. In summary, this thesis constitutes a major contribution to the dream literature. It presents a critical review of contemporary theories of the function of dreaming, proposes the FPT as an alternative to emotion regulation theories of dreaming, reports the results of an empirical study aimed at testing several hypotheses from the FPT, and demonstrates the relevance of this work for future theoretical, empirical, and clinical research.
28

Bosco, Elisa. "Développement d'une nouvelle méthodologie pour l'intéraction fluide structure nonlinéaire : concepts et validation". Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0032/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une méthode innovante pour simuler des interactions fluide-structure complexes tout en gardant un bon compromis temps de calcul/précision est présenté.Pour réduire le temps de simulation des modèles d’ordre réduits sont utilisés au lieu des modèles complets aussi bien pour les modèles structuraux que pour les modèles aérodynamiques. Un des challenges de base était d'utiliser des modèles industrielles hautes fidélités. La technique de condensation dynamique est utilisée pour réduire la taille du modèle éléments finis structures et la décomposition aux valeurs propres est utilisé sur une base de données aérodynamiques construite à partir de simulations CFD.Les non-linéarités structurelles sont réintroduites à posteriori.Une comparaison poussée des méthodes classique d'interpolation comme des méthodes de spline, d’interpolation sur des Manifold de Grassmann avec des méthodes innovantes d'apprentissage statistiques a été amené.Afin de valider complètement la méthodologie développée, une maquette expérimentale visant à imiter le comportement du carénage au sol avant le décollage a été conçue.Ce cas a pu être assimilé à une plaque avec des raideurs de liaisons dans une couche de mélange.La validation de cette méthode est réalisée en comparant les résultats des simulations numériques avec les données enregistrées pendant des essaies en soufflerie. On pourra ainsi comparer aussi bien des champs que des mesures locales. L'ensemble des essais a permis d'améliorer la compréhension de ce phénomène vibratoire qui mène à des problèmes récurrents de fatigue dans cette sous structures.Cette méthode est enfin appliquée à une structure aéronautique: les carénages de volet hypersustentateur
An innovative method for numerical simulating complex problems of fluid structure interaction, such as non-linear transients, characterized by good performances and high precision is presented in this manuscript. To cut down the simulation time, reduced order models are used for both the aerodynamic and structural modules. High fidelity industrial models have been used. A technique of dynamic condensation is employed to reduce the size of the finite element model while the technique of Proper Orthogonal Decomposition is used on a database of aerodynamic pressures built from CFD simulations. Structural non-linearities are reintroduced a posteriori. Different interpolation techniques such as the classic spline interpolation, interpolation on a Grassmann Manifold with more innovative methods of statistical learning have been compared. In order to validate the developed methodology a test campaign has been designed to reproduce a simplified mechanism of interaction inspired by a flap track fairing in take-off configuration. A plate whose stiffness depends on the springs at its attachment to the wind tunnel test section floor is immersed in a mixing layer. In parallel to the test activities a numerical model of the test rig has been developed. The validation of the methodology of fluid structure interaction is done through direct comparison between test data and simulation results. The testing activities have granted a deeper comprehension of the vibratory phenomenon that has led to recurrent fatigue problems on the impacted structures. The methodology is ultimately applied to an industrial problem: the load prediction on flap track fairings excited by engine exhaust
29

Macedo, Alves de Lima Jean. "Développement et validation d'un nouveau critère de déformation progressive pour les REPs". Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2023. http://www.theses.fr/2023ECDL0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors de la conception, la construction et l'exploitation d'un composant nucléaire, il est nécessaire d’assurer l’intégrité de celui-ci quelles que soient les conditions de fonctionnement, nominales ou accidentelles. Dans le cadre de la sûreté, la démonstration de la résistance des composants fondamentaux des circuits primaires et secondaires aux modes de ruine est une nécessité pour valider le dimensionnement de ces structures. Parmi les modes possibles de ruine figure le phénomène de déformation progressive. De manière générale, le dimensionnement en déformation progressive des composants de centrales nucléaires est réalisé par des méthodes simplifiées ou des analyses inélastiques complètes. D’un point de vue industriel, les deux types d’évaluation ne sont pas satisfaisantes car elles sont soit trop sévères soit trop complexes à mettre en œuvre. Dans ce contexte, ces travaux de thèse visent à développer un nouveau critère industriel et/ou une nouvelle méthodologie de calcul applicable sur des structures complexes. Le premier chapitre est consacré à l'étude bibliographique, notamment à l’étude du phénomène de déformation progressive. Le deuxième chapitre présente la modélisation du comportement des matériaux métalliques et les méthodes numériques pour simuler les calculs cycliques. Nous proposons une nouvelle méthode d'accélération des calculs cycliques afin de rendre la méthode d'intégration pas à pas plus rapide. Le troisième chapitre est consacré à la modélisation des essais COTHAA. Des modèles de comportement sont évalués afin de proposer un modèle capable de décrire la déformation progressive observée sur des structures. Les résultats prédits par une version simplifiée du modèle de Chaboche sont en bon accord avec les mesures expérimentales. Nous montrons également l'aptitude de la nouvelle méthode d'accélération à simuler ces essais. Le quatrième chapitre est dédié à l'étude expérimentale. Dans un premier temps, nous proposons un nouvel essai de déformation progressive : l'essai DEFPROG. Dans un second temps, nous validons le modèle proposé dans le troisième chapitre sur ces résultats expérimentaux. Le cinquième, et dernier chapitre, est consacré à la proposition de la nouvelle méthode pour se prémunir contre le risque de déformation progressive. Nous proposons et validons une nouvelle méthode simplifiée, tout en s'appuyant sur des résultats expérimentaux et des modélisations
During the design, construction and operation of a nuclear component, it is necessary to ensure its integrity whatever the operating conditions : nominal or accidental. The demonstration of the components’ resistance of the primary and secondary circuits to failure modes is necessary in order to validate the design of these structures. Among the possible failure modes is the phenomenon of ratcheting. The ratcheting check of nuclear power plant structures is mainly investigated by means of simplified methods or a complete inelastic analysis. Nevertheless, these methods are either conservatives or complex to use and implement. In this context, the aim of this thesis is to develop a new industrial design rule and/or new calculation methodology that is applicable to complex structures.The first chapter is addressed to the state of the art, in particular to the ratcheting phenomenon. The second chapter presents the modeling of metallic materials and the numerical methods to simulate cyclic calculations. We propose a new method for accelerating cyclic calculations in order to make the step-by-step integration method faster.The third chapter is devoted to the modeling of COTHAA tests. Constitutive models are evaluated in order to propose a robust model capable of simulating ratcheting. Results predicted by a simplified version of Chaboche model are found in good agreement as compared to experimental measurements. We also show the ability of the new acceleration method to simulate these tests. The fourth chapter is dedicated to the experimental study. We propose a new structural ratcheting test: the DEFPROG test. Secondly, we validate the model proposed in the third chapter on these experimental results. The fifth and last chapter is devoted to the proposal of the new design rule to forecast the risk of ratcheting. We propose and validate a new simplified method, while relying on experimental results and modeling
30

Feve, Séverine. "Validation du nettoyage appliquée à du matériel de développement industriel". Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Grosset, Lisa. "Développement et validation d’un modèle de vieillissement thermique d’alliages d’aluminium pour application aéronautique". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEM010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les exigences des clients du secteur aéronautique imposent aux entreprises de prendre en compte pour le dimensionnement les effets de la température sur toute la durée de vie du produit. Cependant, aucune loi ne permet actuellement de prévoir l’impact du vieillissement thermique sur le comportement des matériaux. Ce travail a pour objectif de comprendre le mécanisme de vieillissement thermique des alliages d’aluminium et son impact sur les propriétés mécaniques, mais surtout d’acquérir un outil performant capable d’obtenir rapidement des données matériaux après vieillissement.Au cours de cette étude, de nombreuses analyses microstructurales et mécaniques ont été réalisées sur trois alliages d’aluminium à durcissement structural. Différentes combinaisons temps-température de vieillissement ont été testées afin de disposer d’une large base de données sur ces matériaux (caractéristiques mécaniques statiques Rm, Rp0,2 et dureté et tailles des précipités durcissants). Ces données ont ensuite été compilées dans un modèle de vieillissement basé sur les théories classiques de durcissement structural, de croissance et de coalescence des précipités.Le modèle de vieillissement créé répond au besoin initial et prédit de façon conservative le comportement mécanique des alliages ayant subi un vieillissement thermique isotherme. Des axes d’amélioration sont envisagés pour ce modèle évolutif, comme l’intégration de la prévision du comportement en fatigue ainsi que le traitement de cas anisothermes pour une représentation plus réelle des conditions de service des pièces aéronautiques
In aeronautics, customers ask companies to consider the effects of temperature over the entire life of the product in structural requirements. Indeed, aircraft parts are demanded to last longer (up to 90 000 hours) and operate at higher temperatures (up to 250°C). No laws enable to predict the impact of thermal ageing on materials behavior. Current practices are to perform mechanical testing after ageing in ovens at various temperatures, but they are expensive and incompatible with the development schedules. This work aims to understand the thermal aging mechanism of aluminum alloys and its impact on mechanical properties, but especially to acquire a powerful tool able to quickly obtain material data after aging.During this study, many microstructural and mechanical analyses were conducted on three precipitation hardened aluminum alloys. Different combinations of aging time and temperature were tested to get a large database of these materials (static mechanical characteristics Rm, Rp0,2 and hardness and sizes of hardening precipitates). These data were then compiled into a computing aging model based on the classical theories of precipitation hardening, growth and coarsening of precipitates.The created aging model responds to the initial need and can conservatively predict the mechanical behavior of aluminum alloys under isothermal aging. Improvement areas are considered for this evolutionary model, such as the integration of fatigue behavior prediction and the inclusion of thermal cycles for a more realistic representation of service conditions of aircraft parts
32

Faure, Hugo. "Développement et validation d'un nouveau détecteur silicium de grande taille pour S3-SIRIUS". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAE045/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet SPIRAL2 permettra de produire au GANIL des faisceaux radioactifs et stables très intenses. Repoussant les limites actuelles de nos connaissances, il constitue une opportunité pour de nombreux domaines de la physique nucléaire. Le Super Séparateur Spectromètre S3 et son système de détection au plan focal SIRIUS ont été conçus afin de tirer le meilleur parti de ces faisceaux stables intenses notamment au profit des recherches sur les éléments N=Z proches de l'étain-100 et des noyaux super lourds. Ce travail de thèse portent sur les détecteurs silicium Tunnel de SIRIUS, avec d'un côté des simulations GEANT4 de l'ensemble de SIRIUS et d'un autre côté son pendant expérimental avec l'étude des prototypes des Tunnel de SIRIUS. Les simulations ont permis, outre la caractérisation de l'efficacité de détection et des limites induites en terme de conception mécanique, de mettre en lumière le bond en avant permis par l'avènement de détecteurs silicium presque sans zones mortes. La partie dédiée aux manipulations commence par la présentation du banc de test mis en place à l'IPHC pour recevoir et tester les détecteurs prototypes et pré-série. Le détecteur Tunnel est également présenté dans son contexte scientifique et technique. Les études des prototypes de détecteurs Tunnel et les résultats obtenus sont détaillés. Enfin, l'évolution vers les détecteurs de série est présentée sur la base des améliorations réalisées et constatées pour le détecteur de pré-série
The SPIRAL2 project will enable the production at GANIL of very intense radioactive and stable beams. Pushing the present-day limits of knowledge, it represents an opportunity for several fields of nuclear physics. The Super Separator Spectrometer S3 associated to its focal-plane detection system SIRIUS will take the best possible benefit of these intense stable beams especially for researches on the N=Z nuclei close to Tin-100 and on the super heavy elements. This thesis is dedicated to the SIRIUS Tunnel silicon detectors, with GEANT4 simulations and their corresponding experimental study of the SIRIUS Tunnel detectors prototypes. In addition to the detection efficiency characterization and the setting of corresponding limits on mechanical conceptual drawings, the simulations have enabled to shed light on the major forward step brought by zero dead-layer silicon detectors. The section dedicated to the manipulations starts with the presentation of the test bench set up at IPHC in order and test the prototypes and pre-series detectors. The Tunnel detector is also presented in its scientific and technical context. The Tunnel detector prototypes studies and the results obtained are detailed. Finally, the evolution toward series detectors is presented on the basis of the improvements done with the pre-series detector
33

Moravej, Maryam. "Développement et validation des matériaux métalliques pour stents cardiovasculaires biodégradables par dépôt électrolytique". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27897/27897.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les stents coronariens métalliques dégradables émergent comme une alternative possible aux stents permanents fabriqués à partir de métaux résistants à la corrosion comme l'acier inoxydable 316L. Le fer pur est un candidat intéressant pour les stents dégradables en termes de propriétés mécaniques, de dégradation et de biocompatibilité. Ce projet est le premier à étudier la faisabilité d’utiliser l'électroformage pour produire le fer comme matériau structural dans les stents dégradables. Dans ce projet, un processus de dépôt électrolytique a d’abord été développé. Les couches de fer produites ont une microstructure fine, une limite élastique élevée ainsi qu’une résistance à la traction ayant des valeurs comparables à celles de l'acier inoxydable 316L. Un traitement thermique de recuit à 550 ˚C pendant 1 h a produit une recristallisation dans le fer et a amélioré sa ductilité de 8 à 18 %. Des tests de corrosion par polarisation potentiodynamique et par immersion statique et dynamique ont permis l’étude de la dégradation du fer électroformé en solution de Hank. Il a été montré que le fer électrodéposé se corrode plus rapidement que le fer Armco ® déjà implanté comme stents biodégradables. L'effet de la densité de courant en tant que paramètre de l'électroformage sur la microstructure et la dégradation de fer a aussi été étudié. L’étude de diffraction d'électrons rétrodiffusés (EBSD) a montré que différentes microstructures, y compris la taille des grains et la texture, peuvent être produites à différentes densités de courant de 1 à 10 A dm-2. Le plus haut taux de dégradation a été obtenu pour le fer fabriqué à 5 A dm-2, car celui-ci possède la plus petite taille de grains et ceux-ci sont équiaxes avec des orientations aléatoires qui présentent un plus grand volume de joints de grains entraînant un taux de dégradation plus rapide. Enfin, le procédé d’électroformage a été appliqué avec succès pour la fabrication de mini-tubes de fer. Les mini-tubes de fer ont été électroformés sur les échantillons cylindriques d’étain qui ont été décollés par fusion du substrat après le processus. Les mini-tubes ont ensuite été utilisés pour la fabrication de stents de fer par découpe au laser. Les stents de fer ont montré une taille moyenne des grains de 5 µm après recuit et décapage à l'acide. Cette taille du grain est plus fine que celle généralement obtenue pour des stents SS 316L et pourrait fournir des propriétés mécaniques élevées et une dégradation ciblée pour les stents de fer électroformés.
Degradable metallic coronary stents have emerged as possible alternatives for permanent stents fabricated from corrosion-resistant metals such as 316L stainless steel (316L SS). Pure iron has shown to be an interesting candidate for degradable stents in terms of mechanical properties, degradation and biocompatibility. This project is the first to investigate the feasibility of using electroforming process for production of iron for degradable stents where the material is used for a load-bearing application. In this project, firstly, an electroforming process was developed. The produced iron foils showed a fine microstructure and high yield and tensile strength were also obtained comparable to those of 316L SS. Annealing at 550˚C for 1h induced recrystallization in iron and improved its ductility from 8 to 18%. The investigation of the degradation of electroformed iron in Hank’s solution using potentiodynamic polarization, static immersion and dynamic degradation tests showed that it corrodes faster than Armco® iron previously investigated for degradable stents. The effect of current density as an electroforming parameter on the microstructure and thereby the degradation of iron was also studied. Electron backscatter diffraction (EBSD) showed that different microstructures including grain size and texture were produced at different current densities from 1-10 A dm-2. The highest degradation rate was obtained for iron fabricated at 5 A dm-2 since it possesses small grain size and equiaxed grains with random orientations providing more grain boundary volume can be held responsible for its faster degradation rate compared to the other iron samples. Finally, the electroforming process was successfully applied for the fabrication of iron tubes. Iron tubes were electroformed on Sn cylinders which were separated from them by melting after the process. The tubes were then used for the fabrication of iron stents by laser-cutting. Iron stents fabricated from electroformed tubes demonstrated an average grain size of 5 µm after annealing and acid-pickling. This grain size is finer than what usually obtained for 316L SS stents and could potentially provide high mechanical properties and targeted degradation for electroformed iron stents.
34

Desbiens, Jean-François. "Développement et validation d'une mesure de perception de compétence infirmière en soins palliatifs". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27972/27972.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Aithocine, Elise. "Développement et validation d'un instrument non-invasif de caractérisation du comportement musculaire respiratoire". Université Joseph Fourier (Grenoble ; 1971-2015), 2008. http://www.theses.fr/2008GRE10141.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les progrès en anesthésie et en réanimation ont pour objectifs la réduction de la durée de surveillance et l’amélioration de la qualité de la récupération. Pour le cas particulier de l’assistance respiratoire, la capacité de surveiller et d’optimiser l’adaptation entre le patient et sa machine d’assistance est déterminante pour la qualité et la conduite des soins. Ce travail de thèse concerne dans sa première partie la mise en place et la validation d’un outil instrumental permettant de caractériser un comportement respiratoire par l’étude cycle à cycle du délai d’activation inspiratoire entre les muscles des voies aériennes supérieures et de la cage thoracique. Cet outil doit prendre en compte les contraintes imposées par le milieu clinique, telle qu’une mesure non-invasive des muscles respiratoires. La mesure cycle à cycle et par voie de surface du délai d’activation est un véritable challenge dans un environnement clinique qui est fortement perturbé. La démarche choisie ici est double avec en parallèle : i) la mise en place d’un outil de détection d’événements menée sous supervision ; ii) la définition d’un protocole original sur sujets sains prenant en compte les contraintes cliniques et permettant de valider l’outil et de constituer une base de connaissance pour envisager l’automatisation des procédés dans un travail futur. D’un point de vue psychologique, l’influence de la fréquence respiratoire sur le délai d’activation de l’inspiration n’a pas été étudiée à ce jour. Ce délai a donc été mesuré en condition de normocapnie à différentes fréquences respiratoires imposées par un stimulus sonore. Une étude statistique montre que l’instrument permet de distinguer deux situations psychologiques du protocole expérimental, ce qui en démontre la sensibilité. La deuxième partie de ce travail de thèse s’inscrit dans le cadre d’une optimisation des méthodes de détection de singularité d’intérêt. La solution choisie ici se base sur l’intensité structurelle qui calcule la densité de maxima d’ondelettes à différentes échelles et permet une localisation des singularités d’un signal bruité. Une formulation de cet outil qui utilise la transformée de Berkner est proposée. Celle-ci permet le chaînage des maxima d’ondelettes afin de positionner précisément les landmarks du signal. Le filtrage de l’artefact ECG dans l’EMG diaphragmatique sans signal de référence est proposé comme exemple d’application
Better care in an anesthesia and critical care reduces monitoring duration of monitoring and improves the quality of recovery. For the particular case of respiratory assistance, the capacity to track and optimize patient-ventilator synchrony is essential to quality care. As a first step, this thesis addresses the development and validation of an instrument which characterizes respiratory behavior by studying the time lag between onset of upper airway muscles and rib cage muscles, cycle by respiration. This tool must take into account the constraints imposed by the clinical environment; measuring respiratory muscles by surface electromyographic measure (EMG). Measurement of the onset time lag, cycle by cycle and non-invasively, is a true challenge in a critical care clinical environment. Here the approach is two-fold: i) The development of a tool for events detection. Ii) The definition of an original protocol on healthy subjects. The tool development constitutes a knowledge bases to eventually develop automation of the processes in future work. From a physiological point of view, the influence of respiratory rate on the EMG onset time lag during inspiration has not been studied. Thus, we measured this time lag in normocapnia at various respiratory rates imposed by a sound stimulus. Statistically, the instrumental tool can distinguish two physiological situations in this experimental protocol, which confirms its sensitivity. The second step of this thesis is part of an optimization of events detection methods with singularities of interest. The chosen solution is based on structural intensity which computes the "density" of the locations of the modulus maxima of wavelet representation along various scales in order to identify singularities of an unknown signal. An improvement is proposed by applying Berkner transform which allows maxima linkage to insure accurate localization of landmarks. An application to cancel ECG interference in diaphragmatic EMG without a reference signal is also proposed
36

Raude, Emma. "Développement, validation et caractérisation d’un modèle ex vivo de peau humaine perfusé : FlowSkin". Thesis, Toulouse, INSA, 2020. http://www.theses.fr/2020ISAT0015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles organotypiques tels que les explants de peau humaine sont les modèles les plus complexes et parmi les plus représentatifs de la peau in vivo existants à ce jour pour tester l’efficacité ou l’innocuité de molécules d’intérêts thérapeutiques au stade des études pré-cliniques. Cependant, l’absence de circulation sanguine et lymphatique dans ces modèles reste une limite importante dans l’homéostasie du tissu, notamment pour prédire les réponses de la peau à un traitement. De plus, les échanges en nutriments et en oxygène n’étant possibles que par diffusion, la durée de vie de ces modèles reste limitée. Différentes stratégies ont été mises en place afin de contrôler les mécanismes de transports moléculaires au sein de tissus biologiques. La microfluidique offre un fort potentiel pour contrôler la convection et la diffusion permettant l’échange de composés dans ces modèles de peau.L’objectif de ce projet est de développer, caractériser et valider un modèle de peau humaine ex vivo perfusé. Le but de cette perfusion intra-tissulaire est de favoriser les échanges de nutriments, d’oxygène ou de médicaments, mais également d’améliorer l’élimination des déchets métaboliques.Le premier objectif de mes travaux a consisté à mettre en place un flux intra-tissulaire dans un explant de peau humaine, et à développer un procédé permettant de maintenir l’explant perfusé en culture pendant plusieurs jours. Pour cela, un dispositif poreux a été implanté dans le derme du modèle ex vivo de peau humaine NativeSkin, développé par la société Genoskin, puis relié à un système microfluidique permettant l’infusion de composés au sein du tissu.Le deuxième objectif a consisté à développer des méthodes d’analyse de la diffusion de composés dans des explants de peau. Quatre méthodes ont été développées : l’évaluation macroscopique et qualitative de la diffusion à l’aide d’un colorant, l’étude de la diffusion en temps réel par radiographie à rayons X, l’étude de la diffusion en trois dimensions par tomographie à rayons X, et enfin l’analyse de la diffusion de dextrans fluorescents de différents poids moléculaires, sur coupes histologiques. Un modèle numérique permettant de simuler la diffusion dans le modèle de peau a également été développé sur le logiciel COMSOL, permettant de prédire le profil de diffusion d’un composé.Le troisième et dernier objectif a consisté à déterminer les paramètres de perfusion permettant une bonne diffusion des composés dans l’explant de peau, sans toutefois endommager le tissu. Une première série d’expériences (8 donneurs) a été réalisée sur des modèles perfusés à flux constant (2,5µL/min) avec du milieu de culture, pendant 10 jours. Les résultats ont montré qu’à l’issue de la culture, les modèles de peau ne présentent pas d’altération de la viabilité cellulaire ni de l’intégrité du tissu, avec un maintien de la prolifération et du métabolisme cellulaire. Cependant, la caractérisation de la diffusion dans le modèle a démontré un manque de reproductibilité dans les expériences, avec d’importantes variabilités inter et intra-donneurs. De plus, la perfusion de dextrans de différents poids moléculaires a démontré que la diffusion de composés de hauts poids moléculaires était limitée. Afin de pallier ces limites, nous avons proposé une nouvelle méthode de perfusion basée sur une modulation de la pression au sein du dispositif. L’application d’une légère surpression au sein du dispositif poreux permet d’améliorer la reproductibilité et l’efficacité des échanges moléculaires au sein de l’explant.Les résultats obtenus positionnent le modèle FlowSkin ainsi développé comme un nouvel outil pertinent pour évaluer l’efficacité ou la toxicité de molécules administrées par voie intraveineuse, directement sur de la peau humaine. De plus, la perfusion de transporteurs d’oxygène via ce système pourrait permettre de prolonger la durée de vie et donc d’améliorer encore la pertinence du modèle de peau ex vivo
Organotypic models as human skin explants are the most complex and among the most representative of in vivo skin existing today to test the efficacy or the safety of molecules of therapeutic interest during preclinical studies. However, the loss of vascularization and lymphatic system in these models remains a major limitation in tissue homeostasis that impedes the prediction of skin responses to a treatment. In addition, exchanges of nutrients and oxygen being limited to diffusion, models lifetime is limited. Different strategies have been implemented to study and improve mass transport mechanism in such models. Microfluidics offers a great potential to control diffusion and convection mechanisms that permit molecular exchanges in skin models.The objective of this project is to develop, characterize and validate an ex vivo perfused human skin model. The purpose of this intra-tissue infusion is to promote the exchanges of nutrients, oxygen or drugs, but also to improve metabolic waste elimination.The first objective of my work consisted in implementing an intra-tissue flow in a human skin explant, and in setting up a process to maintain the perfused model in culture for several days. To this end, a porous device was implanted in the dermis of the ex vivo human skin model NativeSkin, developed by the company Genoskin. The implantable device is then connected to a microfluidic system allowing the infusion of compounds within the tissue.The second objective was to develop analysis methods of the diffusion of compounds in skin explants. Four methods have been developed: macroscopic and qualitative evaluation of the diffusion using a dye, the study of the diffusion in real time by X-ray radiography, the study of the diffusion in three dimensions by X-ray tomography, and finally the analysis of the diffusion of fluorescent dextrans of different molecular weights, on histological sections. A numerical model allowing to simulate the diffusion in the skin model has also been developed using COMSOL software, allowing to predict the diffusion profile of a compound.The third and last objective of my work was to determine perfusion parameters allowing efficient molecular exchanges of compounds in the skin explant, but without damaging the tissue. A first series of experiments (8 donors) was carried out on models perfused with a constant flow-rate (2.5 µL/min) with culture medium, for 10 days. The results showed that at the end of the culture, skin models did not show any alteration in cell viability or tissue integrity, with maintenance of cell proliferation and metabolism. However, diffusion characterization in the model demonstrated a lack of reproducibility in the experiments, with significant inter and intra-donor variability. In addition, the infusion of different molecular weights dextrans has demonstrated that the mass transport of high molecular weight compounds was limited through the implantable device. We demonstrated that the control of the fluid pressure is critical and that imposing a pulsatile injection with slight overpressures improves the efficiency and reproducibility of the molecular species delivery and collection in the explant.These results have shown the potential of the developed FlowSkin model as a new tool to study the efficacy or toxicity of intravenously administered drugs directly onto human skin. In addition, the combination of FlowSkin with perfusion of oxygen carriers offers unique opportunities to extend the lifetime and further improve the relevance of such ex vivo skin model
37

Michaud, Maxime. "Développement et validation d'une méthode de relaxométrie T2* bi-exponentielle en IRM cérébrale". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30226.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'accumulation de fer joue un rôle clé dans la physiologie du vieillissement cérébral et dans la physiopathologie des maladies neurodégénératives, telles que la maladie de Parkinson (MP) et l'atrophie multi-systématisée (AMS). La quantification du fer intracérébral par Imagerie par Résonance Magnétique (IRM) est un enjeu majeur de la neuroimagerie actuelle. Pour mesurer l'accumulation de fer, une approche de l'IRM quantitative est la détermination des caractéristiques de relaxation des tissus T2* (R2*=1/T2*). La cartographie R2* est généralement calculée en ajustant le signal de décroissance T2* des données d'acquisition multiécho de gradient par un ajustement mono-exponentiel. Des études récentes suggèrent un T2* multi-exponentiel pour caractériser les tissus au niveau sous-voxel. L'utilité clinique de ces dernières méthodes n'est pas encore établie. L'acquisition multiécho de gradient est perturbée par le bruit, introduisant un biais dans une régression mono-exponentielle et encore plus dans une régression multi-exponentielle. Dans cette thèse, nous avons proposé de développer une méthode de traitement des images cérébrales multiécho T2* permettant une résolution bi-exponentielle (Bi-R2*). Pour s'affranchir du faible rapport signal/bruit de ces images, un travail sur la réduction du bruit a été conduit. Des études de simulation numérique de décroissance du signal ont permis de déterminer un critère de sélection à la détermination des niveaux sous-voxels pour la méthode Bi-R2*. La validité de la méthode a été testée par d'autres simulations, par une étude sur fantôme IRM et par une étude de sujets sains jeunes. Nous avons ainsi proposé une méthode d'acquisition T2* optimisant la résolution bi-exponentielle. Enfin, nous avons utilisé la méthode bi-exponentielle sur des données d'IRM T2* de deux études précédentes (où la méthode d'acquisition T2* n'est pas optimale) ont été analysées : (i) une étude visant les modifications cérébrales liées au vieillissement normal (ii) une étude visant à déterminer les modifications cérébrales entre différentes pathologies neurodégénératives. L'objectif de cette dernière partie est de savoir si la méthode bi-exponentielle apporte des informations pertinentes supplémentaires à la méthode classique mono-exponentielle
Iron accumulation plays a key role in the physiology of brain aging and in the pathophysiology of neurodegenerative diseases, such as Parkinson's disease (PD) and multi- system atrophy (MSA). The quantification of intracerebral iron by Magnetic Resonance Imaging (MRI) is a major issue in current neuroimaging. To measure iron accumulation, one approach to quantitative MRI is the determination of T2* tissue relaxation characteristics (R2*=1/T2*). R2* mapping is generally calculated by adjusting the T2* decay signal of multiecho gradient acquisition data by a mono-exponential adjustment. Recent studies suggest a multi-exponential T2* to characterize tissues at the subvoxel level. The clinical utility of the latter methods is not yet established. Multi-echo gradient acquisition is disturbed by noise, introducing a bias in mono-exponential regression and even more so in multi- exponential regression. In this thesis, we proposed to develop a method for processing multiecho T2* brain images allowing a bi-exponential resolution (Bi-R2*). To overcome the low signal-to-noise ratio of these images, work on noise reduction has been conducted. Numerical simulation studies of signal decay made it possible to determine a selection criterion for determining subvoxel levels for the Bi-R2* method. The validity of the method was tested by further simulations, by an MRI phantom study and by a study of healthy young subjects. We have thus proposed a T2* acquisition method that optimizes bi-exponential resolution. Finally, we used the bi- exponential method on T2* MRI data from two previous studies (where the T2* acquisition method is not optimal) were analyzed: (i) a study aimed at cerebral modifications related to normal aging (ii) a study aimed at determining cerebral modifications between different neurodegenerative pathologies. The objective of this last part is to determine whether the bi- exponential method provides additional relevant information to the classical mono- exponential method
38

Kravtchenko, Florent. "Développement et validation d’un nouveau dispositif expérimental pour l’étude des réactions RO2 + HOx". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1R067.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans l’atmosphère, la dégradation des polluants organiques tels que les Composés Organiques Volatils (COV) est initiée par le principal oxydant de l’atmosphère : le radical OH. Cette dégradation conduit à la formation d’autres radicaux, de type peroxyles : hydroperoxyles HO2 et alkylperoxyles RO2. Ces radicaux jouent un rôle prépondérant dans la chimie de la troposphère. La réactivité des radicaux RO2 et HOx (HO2 et OH) contrôle la capacité oxydante de l’atmosphère ainsi que la formation d’ozone troposphérique et de polluants secondaires. Dans les régions éloignées des activités humaines (dites également « environnements propres », par exemple les forêts tropicales ou la couche limite marine), où la concentration en oxydes d’azote (NOx) est faible, les réactions entre les radicaux RO2 et HOx dominent la chimie troposphérique. Cependant, cette chimie est encore mal connue et fait l’objet de controverses dans les travaux de la littérature. Les incertitudes et/ou le manque de données sur les constantes de vitesse et les rapports de branchement de ces réactions radicalaires peuvent conduire à d’importantes erreurs sur la modélisation de la concentration en ozone mais également en radicaux. C’est dans ce cadre qu’un nouveau dispositif expérimental innovant a été développé afin d’apporter de nouveaux résultats expérimentaux pour les réactions du type RO2+HOx. Celui-ci est composé d’un réacteur à écoulement rapide couplé à trois techniques complémentaires : la Fluorescence Induite par Laser (FIL) pour la mesure du radical OH, la spectroscopie à temps de déclin d’une cavité optique (cw-CRDS : continuous wave Cavity Ring-Down Spectroscopy) pour la mesure des radicaux HO2 et la Spectrométrie de Masse avec prélèvement par Faisceau Moléculaire (FM/SM) permettant la mesure d’espèces stables (produits de réaction) et radicalaires. Dans un premier temps, chacune des trois techniques expérimentales a été validée indépendamment, puis des mesures de constantes de vitesse de réactions connues, impliquant une espèce stable (éthane, propane, méthanol, CO) et le radical OH ont été réalisées afin de valider le dispositif expérimental dans son ensemble. Deux méthodes de génération des radicaux OH dans le réacteur ont été utilisées : à partir des réactions F+H2OOH+HF et H+NO2OH+NO. Un phénomène inexpliqué de recyclage de OH dans le réacteur a été observé pour tous les partenaires de réaction (excepté CO), lorsque les radicaux OH sont formés à partir de la réaction F+H2OOH +HF. Ceci a été confirmé lors de l’étude de réactions faisant intervenir les mêmes espèces deutérées. Dans ce manuscrit sont recensés les différents tests ayant été réalisés afin de comprendre ce phénomène
In the atmosphere, the degradation of organic pollutants such as Volatile Organic Compounds (VOCs) is induced by the most important atmospheric oxidant: the hydroxyl radical OH. This degradation leads to the formation of peroxy radicals: hydroperoxy HO2 and alkylperoxy RO2. These radicals play a major role in tropospheric chemistry. The reactivity of RO2 and HOX (HO2 and OH) radicals controls the oxidative capacity of the atmosphere and the formation of tropospheric ozone and secondary pollutants. In remote environments (or “clean environment” such as tropical forests or marine boundary layer), where the concentration of nitrogen oxides (NOx) is low, the reactions between RO2 and HOx dominate the atmospheric chemistry. However, this chemistry is still poorly known and controversial in the literature. The uncertainties and/or lack of data on RO2+HOx reactions rates and branching ratios can lead to important errors on modelling of ozone and radical concentrations in the atmosphere. The aim of the present work is the development of a new and innovative experimental device to bring new experimental results for the reactions RO2 + HOx. The new setup consists of a fast flow tube coupled to three complementary techniques: Laser Induced Fluorescence (LIF) for OH radical measurements, continuous wave Cavity Ring-Down Spectroscopy (cw-CRDS) for HO2 radical measurements and Mass Spectrometry with Molecular Beam sampling (MB/MS) for measurement of stable reaction products and radical species. First, each of the three techniques has been validated independently, and then the validation of the complete system was done through the study of different known reactions between a stable species (ethane, propane, methanol, CO) and OH radicals. Two methods of OH radicals generation in the reactor were used: through the reaction F+H2OOH+HF and the reaction H+NO2OH+NO. An unexplained OH recycling phenomenon in the reactor has been observed for all reaction partners (except CO) when using F+H2O as precursors. This was confirmed during the study of reactions involving the same deuterated species. In this manuscript, the different tests that have been carried out in order to understand this phenomenon are described
39

Burga, Pérez Karen. "Développement et validation de microbiotests en phase solide pour l'évaluation écotoxicologique de sédiments". Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0219/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les sédiments sont des compartiments du milieu aquatique qui accumulent des polluants via les dépôts de matières en suspension. La contamination des sédiments peut présenter potentiellement des effets négatifs sur les organismes aquatiques, et pour cette raison ils convient de les surveiller, évaluer et protéger afin de garantir l'intégrité de la structure et du fonctionnement des écosystèmes aquatiques. Le projet ANR-PRECODD DIESE (Outils de Diagnostic de l'Ecotoxicité des Sédiments) a réuni différents partenaires pour le développement d'une stratégie d'évaluation graduée du risque environnemental des sédiments contaminés d'eau douce. C'est dans le cadre de ce projet que se situe notre travail de recherche qui concerne le développement et l'optimisation de microbiotests en phase solide pour évaluer l'écotoxicité des sédiments. Les microbiotests sélectionné dans la cadre de cette étude ont été les tests Microtox® en phase solide(MSPA), les tests algues en phase solide, le test Luminotox en phase solide Lum-SPA) et l'Ostracodtoxkit®. Ces biotests se caractérisent par différentes conditions d'essai et divers critères d'évaluation. Ils ont généré différentes réponses pour chaque sédiment testé, le test algues a été le seul test qui n'a pas présenté de sensibilités avec tous les échantillons testés. En outre, nous avons montré que les réponses des tests MSPA et Lum-SPA étaient corrélées à certaines caractéristiques géochimiques des sédiments. Finalement, nous avons synthétisé les réponses de trois microbiotests à l'aide d'un indice d'intégration permettant ainsi de discriminer l'écotoxicité observée des sédiments
The sediments are a compartment of the aquatic environment that tends to accumulate pollutants through the deposition of suspended solids. Sediment contamination can have potentially negative effects on aquatic organisms, so it is necessary to monitor, assess and protect the sediments to ensure the integrity of the structure and functioning of aquatic ecosystems. The ANR-PRECODD DIESE (diagnostic tools for assessing sediment ecotoxicity) has joined efforts of different partners to develop a strategy for tiered environmental risk assessment of contaminated freshwater sediments. In the framework of this project our research was focused on the development and optimization of solid phase microbiotests to assess the ecotoxicity of freshwater sediments. The microbiotests selected in this study were the tests Microtox® solid phase (MSPA), the algal solid phase test, the test LuminoTox solid phase (Lum-SPA) and Ostracodtoxkit®. These biotests are characterized by different test conditions and assessment criteria. We have obtained different responses for each tested sediment. The algal test was the only ones that have not reported sensitivities with all samples tested. Furthermore, we demonstrated that the response of the test Lum-SPA and MSPA were correlated with some geochemical characteristics of sediments. Finally, we synthesized the responses of three microbiotests using an index of integration allowing to discriminate between the observed sediment ecotoxicity
40

Filipiak, Isabelle. "IRM de diffusion des fibres blanches cérébrales : développement et validation d'un objet-test". Thesis, Tours, 2014. http://www.theses.fr/2014TOUR3311/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'imagerie en tenseur de diffusion (DTI) est basée sur la mesure de la mobilité des molécules d'eau permettant l'analyse de la microarchitecture du tissu cérébral. Le trajet des fibres blanches peut être alors reconstruit par des méthodes de tractographie déterministes basées sur la direction principale de la diffusion. Toutefois elle repose sur des outils mathématiques complexes donnant un regard indirect sur les structures anatomiques, et sa validation est un enjeu majeur. Notre objectif a été de concevoir un objet-Test (OT) tri-Dimensionnel permettant la validation de la diffusion dans des faisceaux de fibres imitant l'organisation cérébrale. Cet OT se compose de trois modules: BOITE, SOLUTION, FIBRE réalisés en impression 3D. Il se compose de solutions de glucose et de fibres de dyneema orientées dans les trois orientations de l’espace. Nous nous sommes intéressés au développement d'une méthode de contrôle qualité des mesures quantitatives de diffusion dans le module SOLUTION
Diffusion Tensor Imaging (DTI) is based on the measurement of water diffusion mobility in order to investigate brain microarchitecture and white fiber connectivity. The trajectory of white fibers bundles can be reconstructed by deterministic tractography methods depending on the principal direction of diffusion in tissu. However, tractography consist to complex mathematical algorithms reflecting an indirect visualization of white fibers. Our goal consisted to design a 3D phantom which imitates brain's diffusion properties, offering different degrees of diffusion mobility and imitating the organization of brain fibers. The phantom consists of three components 3D-Printing: BOX, SOLUTION, FIBER. The phantom was composed of various glucose solutions and dyneema synthetical fibers organized in all 3 directions. We developed a quality control of quantitative measurements for the SOLUTION's component. We have lead a comparison of fibers reconstruction between tractography and ground truth in FIBER's component. Results show that : ADC values were ranged on those brain values with glucose solutions; FA
41

Turcot, Stéphane. "Développement et validation d'un système expert en diagnostic de performance d'une PME manufacturière". Thèse, Université du Québec à Trois-Rivières, 1999. http://depot-e.uqtr.ca/3214/1/000665058.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Boutal, Hervé. "Développement et validation de tests de détection rapide de la résistance aux antibiotiques". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS499/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les béta-lactamines sont les antibiotiques préférentiellement utilisés contre les bactéries Gram négatif responsables d’infections. La dissémination mondiale d’organismes produisant des béta-lactamases à spectre élargi (BLSE) ou des carbapénémases est une préoccupation générale ainsi qu’une menace économique.Parmi ces organismes, les Entérobactéries jouent un rôle important dans les infections nosocomiales (ainsi que les infections communautaires pour E. coli). L’émergence et la dissémination d’Entérobactéries productrices de BLSE (E-BLSE), exprimant principalement des béta-lactamases de la famille des CTX-Ms, et dans une mesure plus inquiétante de carbapénémases (EPC), principalement les enzymes NDM, KPC, IMP, VIM et OXA-48, sont sans le moindre doute un problème de santé publique majeur.Les CTX-Ms hydrolysent les céphalosporines à large spectre et sont les BLSEs principalement rencontrées chez les Entérobactéries lors d’infections urinaires communautaires, mais aussi les bactériémies à E. coli qui peuvent en découler. Ces infections sévères sont traitées avec des carbapénèmes, considérés comme les antibiotiques de dernier recours. Malheureusement, leur utilisation croissante à soumis les entérobactéries à une pression de sélection conduisant à de plus en plus de souches montrant une sensibilité réduite aux carbapénèmes pouvant aboutir à un échec thérapeutique.Si l’on considère les possibilités de traitement limitées pour les E-BLSEs, que les EPCs sont souvent résistantes à plusieurs si ce n’est toutes les classes d’antibiotiques, et que pour certaines peu ou pas de traitements antibiotiques sont disponibles, leur rapide détection et identification sont essentielles. Des tests fiables sont nécessaires pour aider les cliniciens à, rapidement mettre en place des mesures de contrôle de ces infections, adapter les traitements antibiotiques et optimiser les stratégies de soins et leur issue favorable.Lors de la détection des E-BLSEs et des EPCs, il est aussi crucial d’identifier la béta-lactamase impliquée pour la mise en place d’une thérapie adaptée. Les méthodes basées sur la spécificité des anticorps sont sans aucun doute parmi les plus appropriées pour atteindre cet objectif.Pour répondre aux besoins actuels, les méthodes de détection des résistances ont antibiotiques doivent être peu coûteuses (coûts réduits des consommables et des équipements) et facile à mettre en place (technicité faible) pour l’utilisateur. C’est pourquoi nous avons décidé de développer des tests immunochromatographiques qui répondent parfaitement à ce cahier des charges. Pour atteindre cet objectif, nous avons produit des anticorps monoclonaux dirigés contre les CTX-Ms, et les familles de carbapénémases NDM, KPC, et OXA-48. Les tests immuno-chromatographiques correspondants ont été développés et validés. Nos tests sont robustes, facilement transférables dans une version commerciale et stables pour 24 mois sans réfrigération. Ils sont conviviaux, performants en termes de spécificité et sensibilité, et peu couteux, de 7€ (pour un mono-test) à moins de 15€ (pour un multiplex). De plus les résultats sont obtenus dans un court délai sans la nécessité d’un équipement particulier pour la lecture. Nous avons validé un mono-test pour la détection des CTX-Ms du groupe 1, et évalué la détection des groupes 1, 2, 8 et 9 directement dans des échantillons cliniques comme les hémocultures ou l’urine. Des mono-tests pour la détection des NDMs, KPCs et des OXA-48 et un multiplex pour la détection simultanée des cinq principales carbapénémases ont également été validés. Pour ce faire, nous avons utilisés 180 souches isolées sur boites, provenant du Centre National de Référence pour la résistance aux carbapénémases chez les Entérobactéries, dont le contenu en béta-lactamase est caractérisé
Beta-lactams are antibiotics preferentially used against gram-negative bacilli infections. The worldwide spread of extended spectrum beta-lactamases (ESBL) or carbapenemase-producing organisms is a global concern and also an economic threat.Within those organisms, Enterobacteriaceae have a major role as causes of nosocomial infections (and, for E. coli, also of community-acquired infections). The emergence and dissemination of ESBL-producing Enterobacteriaceae (ESBL-E), mainly expressing beta-lactamases from the CTX-M family, and in a worrier aspect of carbapenemase-producing Enterobacteriaceae (CPE), mainly NDM, KPC, IMP, VIM and OXA-48 like enzymes, are undoubtedly a matter of great public health concern.CTX-Ms hydrolyze broad-spectrum cephalosporins and are the most encountered BLSE in Enterobacteriaceae, and CTX-Ms producers have been reported as the most prevalent ESBL producers in community-onset urinary tract infections (UTIs). Moreover, CTX-M-producing E.coli are a major cause of bloodstream infections that are often secondary to UTIs. These severe infections are treated with carbapenems, considered as last resort antibiotics. Unfortunately, their increasing use put a selective pressure on Enterobacteriaceae, leading to more and more strains showing decreased susceptibility to carbapenems and potentially leading to therapeutic failure.Considering the limited treatment options for ESBL-E and that CPE are often resistant to several if not all classes of antibiotics, and for which very few (or no) antibiotic options remain available, their rapid detection and identification are essential. Reliable tests are needed to help physicians, to quickly provide appropriate infection control measures, to adapt rapidly antibiotic treatment and optimize care strategies and outcomes.While detecting ESBL-Es or EPCs, it is also crucial to identify the implicated beta-lactamase for accurate therapy implementation. To do so, the antibody-specificity based methods are undoubtedly appropriate. To respond to the current needs, antimicrobial drug resistance detection methods must be cheap (reduced costs of consumables and equipment) and easy to use (reduced technical complexity) for the end user, and LFIAs respond to this requirements. Our objective was to develop such tests, and this led us to produce monoclonal antibodies against CTX-Ms, NDM, KPC, IMP, VIM and OXA-48 carbapenemase families and to develop and validate the corresponding LFIAs. Our tests are robust assays, easily transferable in a commercialized version, stable for more than 24 months without refrigeration, user-friendly (no requirement of trained staff), high performance (sensitive and specific), low cost, from 7€ (monotest) to less than 15€ (multiplex). Moreover, the detection results are obtained in short delay without the need for highly technical equipment for the readout.Here, we validated a LFIA for the detection of CTX-Ms (from group 1) and to a wider extent evaluated the direct detection of CTX-Ms from groups 1, 2, 8 and 9 in clinical samples such as blood culture and urine. Mono-tests to detect NDMs and OXA-48-like, and a multiplex for the simultaneous detection of the five main carbapenemases were also validated. These validations were conducted using 180 well characterized isolates in terms of their -lactamase content from the French National Reference Centre for carbapenem-resistant Enterobacteriaceae
43

Baffet, Guillaume. "Développement et validation expérimentale d’observateurs des forces du contact pneumatique/chaussée d’une automobile". Compiègne, 2007. http://www.theses.fr/2007COMP1695.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La connaissance de la dynamique d'un véhicule et de son environnement est un enjeu majeur. L'objectif de cette thèse est de développer des observateurs d'état permettant d'estimer des variables liées à l'adhérence du contact pneumatique/chaussée. Différentes méthodes d'observation sont proposées afin de reconstruire les efforts des pneumatiques et l'angle de dérive d'une automobile. Ces algorithmes d'estimation sont conçus pour être fonctionnels en cas de situation de conduite critique, notamment lors de fortes accélérations latérales ou lorsque l'adhérence de la chaussée varie. Outre une description des techniques d'observation mises en oeuvre, cette étude présente d'importantes phases de validation par la simulation et l'expérimentation. Ce travail a abouti à la conception d'un module temps réel embarqué qui a pu être évalué relativement à des mesures des forces des roues
Estimation of vehicle-dynamic variables is essential for safety enhancement, in particular for braking and trajectory-control systems. The aim of this thesis is to develop state observers for the estimation of variables linked to tire-road friction. Different estimation methods are proposed in order to reconstruct tire-road forces and vehicle sideslip angle. The estimation algorithms are constructed so as to be functional in critical driving situations, notably for weak lateral accelerations and road friction changes. In addition to estimation methods, this thesis presents a substantial number of observer evaluations, performed in simulations and in experiments. The estimation process was integrated in an experimental vehicle, and was tested in real time, particularly in relation to wheel force measurements
44

Schaschkow, Anaïs. "Développement et validation de matériaux biomimétiques pour l'optimisation de la transplantation d'ilôts pancréatiques". Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAJ056/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transplantation d’îlots pancréatiques est une des thérapies proposées aux diabétiques de type 1. Cependant, la perte d’un nombre considérable d’îlots durant le processus est un frein à l’expansion de la thérapie (en culture : anoïkis et hypoxie ; lors de la greffe : réactions inflammatoires intenses déclenchées lors de l’infusion intra-portale). L’objectif de ce travail était de valider un biomatériau permettant d’optimiser la transplantation d’îlots. Nous avons pu démontrer l’efficacité du plasma réticulé sur la survie des îlots en culture via une diminution drastique de l’anoïkis. Nous avons également mis au point une technique de greffe intra-tissulaire à l’aide d’HPMC combinée à du plasma, permettant de reverser le diabète de manière semblable à la greffe hépatique. Ces travaux ont donc permis de valider l’importance d’un support de culture adapté, mais aussi du site receveur de la greffe et placé l’omentum comme site de choix pour ce type de greffe
Pancreatic islet transplantation is one of the therapies proposed to type 1 diabetic patients. However, the considerable loss of islets during the process is an obstacle to the expansion of this therapy (culture: anoïkis and hypoxia; at graft time: intense inflammatory reactions triggered by intra-portal islet infusion). The objective of this work was to validate a biomaterial that can optimize islet transplantation. We were able to demonstrate the effectiveness of cross-linked plasma on the islet survival in culture through a drastic reduction of anoikis. We also design a new intra-tissular grafting technique using HPMC combined with plasma, which reversed diabetes in a manner similar to the liver. This work allowed validating the importance of an adapted culture support, but also the one of the recipient site. Also, this work placed the omentum as an excellent recipient site for this kind of transplant
45

Schaschkow, Anaïs. "Développement et validation de matériaux biomimétiques pour l'optimisation de la transplantation d'ilôts pancréatiques". Electronic Thesis or Diss., Strasbourg, 2016. http://www.theses.fr/2016STRAJ056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transplantation d’îlots pancréatiques est une des thérapies proposées aux diabétiques de type 1. Cependant, la perte d’un nombre considérable d’îlots durant le processus est un frein à l’expansion de la thérapie (en culture : anoïkis et hypoxie ; lors de la greffe : réactions inflammatoires intenses déclenchées lors de l’infusion intra-portale). L’objectif de ce travail était de valider un biomatériau permettant d’optimiser la transplantation d’îlots. Nous avons pu démontrer l’efficacité du plasma réticulé sur la survie des îlots en culture via une diminution drastique de l’anoïkis. Nous avons également mis au point une technique de greffe intra-tissulaire à l’aide d’HPMC combinée à du plasma, permettant de reverser le diabète de manière semblable à la greffe hépatique. Ces travaux ont donc permis de valider l’importance d’un support de culture adapté, mais aussi du site receveur de la greffe et placé l’omentum comme site de choix pour ce type de greffe
Pancreatic islet transplantation is one of the therapies proposed to type 1 diabetic patients. However, the considerable loss of islets during the process is an obstacle to the expansion of this therapy (culture: anoïkis and hypoxia; at graft time: intense inflammatory reactions triggered by intra-portal islet infusion). The objective of this work was to validate a biomaterial that can optimize islet transplantation. We were able to demonstrate the effectiveness of cross-linked plasma on the islet survival in culture through a drastic reduction of anoikis. We also design a new intra-tissular grafting technique using HPMC combined with plasma, which reversed diabetes in a manner similar to the liver. This work allowed validating the importance of an adapted culture support, but also the one of the recipient site. Also, this work placed the omentum as an excellent recipient site for this kind of transplant
46

Negre, Erwan. "Couplage ablation laser et imagerie spectrale rapide pour identification et analyses de plastiques : concept, développement et validation". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1036/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La spectroscopie de plasma induit par laser, ou LIBS (acronyme anglais de Laser Induced Breakdown Spectroscopy) est une technique d'analyse élémentaire basée sur l'émission d'un plasma issu de l'interaction laser-matière. Elle permet en principe une détection de l'ensemble des éléments du tableau périodique avec une sensibilité typiquement de l'ordre du ppm et ce sur tout type de matériaux : solides, liquides ou gazeux. Sa capacité à exploiter aussi bien le signal élémentaire que moléculaire en fait un candidat crédible à l'identification des matériaux organiques, par exemple dans le domaine du tri des déchets plastiques où les techniques d'analyses usuelles peinent à remplir toutes les contraintes liées à cette question. Cependant, le plasma induit par laser est un phénomène transitoire et correspondant à un milieu inhomogène parfois difficile à maitriser, notamment en comparaison avec un plasma à couplage inductif. En conséquence, la LIBS reste aujourd'hui marginale dans les applications où une information fiable et souvent quantitative est requise. Ce travail doctoral, fruit d'un partenariat entre le CRITT Matériaux Alsace et l'Institut Lumière Matière de Lyon dans le cadre 'un financement CIFRE, se propose d'étudier ces deux problématiques. Un nouvel instrument LIBS est tout d'abord présenté. Articulé autour de nombreux outils de contrôle pilotés par un logiciel dédié, il a permis de limiter considérablement les fluctuations du signal LIBS liées aux divers paramètres impliqués dans le processus d'ablation laser (énergie du laser, position de l'échantillon, position de la détection…). L'efficacité de cet instrument est montrée à travers une étude de quantification d'éléments en trace dans des matrices de verre
Laser Induced Breakdown Spectroscopy (LIBS) is an analytical technique based on the emission of a plasma arising from the laser-matter interaction. All the elements of the periodic table can be detected with a detection limit close to the ppm, regardless of the nature of sample: solid, liquid or gas. LIBS can perform elemental as well as molecular analysis, which makes it a trustworthy technique for the identification of organic materials, especially with reference to plastic waste sorting where the established techniques experience some difficulties to fulfill all the requirements of this issue. Nevertheless, the laser-induced plasma is a transient and inhomogeneous process regularly hard to master in comparison with an inductively coupled plasma. As a consequence, LIBS technique still remains marginal for the applications demanding a reliable and frequently quantitative information. This doctoral research, which falls within the framework of a partnership between the CRITT Matériaux Alsace and the Institut Lumière Matière in Lyon, proposes to examine the two issues mentioned above. A new LIBS instrument is first given. It is organized around several monitoring tools driven by a dedicated software which allowed us to considerably reduce the fluctuations of the LIBS signal coming from the different factors involved in the process of laser ablation (laser energy, sample and detection positions, etc…). The efficiency of this new LIBS instrument is then illustrated through the example of the quantification of trace elements in glass matrices
47

Pouchairet-Ramona, Jean-Laurent. "Développement d'un système d'initiation pyrotechnique, sécurisé, autonome, intelligent et intégrant des nanothermites". Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Répondant à un besoin grandissant de standardisation et d’adaptabilité pour les systèmes pyrotechniques, nous présentons au travers de ce travail un nouveau concept de leurre infrarouge intelligent, contrôlable à l’aide d’un système d’initiation électronique miniature embarqué. Notre solution innovante se décompose en trois blocs fonctionnels distincts : (1) un bloc d’éjection pyrotechnique contrôlable intégrant trois charges d’éjection dans une seule pièce plastique métallisée, (2) un bloc appelé fonction terminale, constitué d’un pain pyrotechnique infrarouge structuré, couplé à un étage de micro-initiation à base de nano-thermites, adressable et basse énergie, et (3) un bloc de contrôle, connecté et autonome, répondant au STANAG 4187 qui commande l’armement et la mise à feu des fonctions pyrotechniques. Au cours de ce travail, nous avons développé un code de balistique intérieure à paramètres globaux et un superviseur d’optimisation, capable de simuler n’importe quel système à effet mortier, et un code de régression géométrique basé sur la méthode level-set,capable de modéliser la combustion de n’importe quel pain solide multicomposition, compartimenté ou structuré, allumé séquentiellement ou simultanément en plusieurs points.Nous avons montré théoriquement, puis validé expérimentalement, qu’il était possible de contrôler finement la réaction de combustion des pains pyrotechniques IR grâce à un allumage séquentiel de ces derniers, ce qui représente une innovation importante en pyrotechnie. Nous avons validé expérimentalement, qu’il était possible de contrôler la vitesse d’éjection de leurres IR grâce à un allumage partiel d’impulseurs plastroniques. Ce travail a abouti à l’intégration des différents blocs fonctionnels dans un démonstrateur représentatif d’un leurre infrarouge intelligent et miniature : CASSIS
Answering a growing need for standardization and adaptability in pyrotechnics, we hereby present a smart and safe pyrotechnical infrared (IR) flare electronically controllable through an embedded miniature initiation system. The countermeasure has been designed to fit within a 1”×1”×8” standard cartridge, and consists of three distinct blocks, which are mechanically and electronically interconnected: (1) a pyrotechnical ejection block integrating three ejection charges in a single metalized plastic casing, (2) a micro-initiation stage comprising nanothermite-based micro-initiators and a structured pyrotechnic loaf, (3) a STANAG 4187 compatible electronic control, command and power management block.Throughout this work, we developed a lumped parameter internal ballistics model for the ejection, and conducted a response surface methodology study to extract optimal design parameters. We developed a geometric regression script, based on level set techniques, to model the combustion of multicomponent, sequentially-initiated, partially inerted pyrotechnic loafs. We demonstrated, theoretically then experimentally, that we could control the combustion of IR pyrotechnic loaves using sequential initiation, and that we could control the ejection velocity of IR flares using multipoint mortar ejectors.This work resulted in integrating said technological block in a functional 1’’1’’8’’ controllable, autonomous safe and smart infrared flare demonstrator, CASSIS
48

Cassoulet, Raphaël. "Développement et validation de méthode d'analyse multirésiduelle de contaminants organiques et inorganiques dans des matrices biologiques". Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11508.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Chaque jour de nouveaux produits synthétiques sont produits et se retrouvent plus tard dans l’environnement. À l’heure actuelle, des normes sont mises en place pour la régulation d’émission de nombreux contaminants, mais nombre d’entre eux ne sont encore soumis à aucune loi. De par leurs faibles présences dans la nature, la mise en place de règlementations est une tache rigoureuse. En effet, les règlementations sont majoritairement basées sur des essais de toxicité aigüe car la prise en compte des effets dus aux concentrations traces ainsi que la complexité des molécules présentes nécessitent une instrumentation analytique très spécifique. Les effets au long terme ne sont donc que rarement pris en compte dans la législation. Cependant de nombreuses études ont prouvées que des concentrations traces peuvent avoir des impacts importants sur la croissance de nouveaux nés pour de nombreuses espèces. C’est par exemple le cas des composés biphényls polychlorés qui ont été prouvés comme retardant la croissance des nouveaux nés humains soumis à une contamination in-utéro. De même une exposition aux néonicotinoïdes est corrélée avec une augmentation de l’infertilité de plusieurs espèces aviaires. Les concentrations retrouvées dans ces cas sont en dessous des normes existantes mais des effets subléthaux importants sont observés. Ces effets dépendent de beaucoup trop de facteurs pour pouvoir être quantifiés de façon suffisamment rigoureuse pour les incorporer dans des règlementations officielles. Bien que certains organismes considèrent ces effets dans des lignes directives, tel que l’EPA, elles ne peuvent pas être appliquées dans des lois de par leurs dépendances à des conditions précises. La présence d’un contaminant peut s’avérer dangereuse pour l’environnement mais une dynamique différente peut avoir lieu si plusieurs d’entre eux sont présents. La toxicité individuelle de chaque composé peut être accrue ou diminuée en la présence d’autres contaminants, ceci est appelé l’effet cocktail (effet synergique, antagoniste, agoniste, etc). Ainsi ces effets obtenus en laboratoire ne reflètent pas la réalité environnementale de ces contaminations. La quantification simultanée de nombreux composés est un domaine qui se développe de plus en plus. Son utilité est bien réelle car elle permet d’augmenter le nombre de méthodes robustes et ainsi améliorer la qualité des normes actuelles pour l’analyse multirésiduelle de contaminants organiques. Le développement de méthodes simples, robustes et efficaces est un domaine très important en chimie analytique. Cependant la plupart des méthodes multirésiduelles sont réalisées sur des composés ayant des propriétés physico chimiques très proches. Pour ce mémoire, les études sont faites sur des composés appartenant à différentes familles et couvrant une vaste gamme de propriétés physico chimiques afin d’avoir une meilleure représentation des contaminations environnementales réelles. L’un des principaux obstacles de ce genre de travaux est la nature de la matrice étudiée. Plus la matrice va être complexe, plus les interactions avec les analytes et ou le solvant vont variées, rendant l’extraction de composés ayant des propriétés différentes plus délicate. Les travaux présentés dans ce mémoire consistent en le développement de méthodes d’analyse de contaminants dans des matrices biologique dans le but de les utiliser comme outils de marqueurs de contamination environnementale (projets parallèles). Le premier projet s’incruste dans l’étude GESTE (Grossesse et Enfant en Santé – étude sur la Thyroïde et l’Environnement) qui a pour but, entre autres, d’étudier l’effet de stress in-utéro sur le développement des enfants. Les contaminants ont pu être détectés par analyse de méconiums récupérés à la naissance de l’enfant. La méthode d’extraction utilisée consiste en une étape d’extraction solide-liquide, suivie d’une purification par dispersion de phase solide et analyse par UPLC-MS/MS Xevo TQ (Waters) pour les contaminants organiques. La séparation est faite à l’aide d’une colonne 100 mm x 2.1 mm, 1.8 µm équipé d’un pré filtre de 0.2 µm (Waters). Les contaminants inorganiques sont minéralisés dans de l’acide nitrique puis dilués pour analyse par ICP-MS Xserie II (Thermo Scientifique). Ces méthodes ont été appliquées sur 500 échantillons provenant principalement de la région de l’Estrie au Québec (Canada). Les résultats montrent des concentrations inférieures à celles rapportées dans la littérature pour l’analyse de contaminants organiques ainsi qu’inorganiques. Ceci montre que l’Estrie est une région ou l’exposition à ces contaminants est faible. Les seules exceptions sont la caféine et l’acétaminophène. Leurs taux de détections sont de 20 à 30% plus élevés que ceux reportés dans la littérature et leurs concentrations moyennes sont 5 à 10 fois plus importantes. Le second projet est le développement d’une méthode d’analyse de perturbateurs endocriniens dans des eaux usées. Ce projet est fait en collaboration avec le groupe SMi dans le but d’accroitre leurs prestations analytiques en développant une méthode performante d’analyse des nonylphenoles. La méthode consiste à une extraction sur phase solide (Strata X) d’échantillon d’eau et une élution au méthanol puis une analyse par UPLC-MS/MS. Les composés sont séparés sur une colonne BEH C18 1.7 µm; 2.1x50 mm (Waters). Cette méthode a pu être validée avec les critères imposés par la compagnie.
49

Baup, Olivier. "La simulation numérique du soudage : développement et validation de méthodes simplifiées et de groupage de passes". Aix-Marseille 2, 2001. http://www.theses.fr/2001AIX22014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Sayar, Imen. "Articulation entre activités formelles et activités semi-formelles dans le développement de logiciels". Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement de spécifications formelles correctes pour des systèmes et logiciels commence par l’analyse et la compréhension des besoins du client. Entre ces besoins décrits en langage naturel et leur spécification définie dans un langage formel précis, un écart existe et rend la tâche de développement de plus en plus difficile à accomplir. Nous sommes face à deux mondes distincts. Ce travail de thèse a pour objectif d’expliciter et d’établir des interactions entre ces deux mondes et de les faire évoluer en même temps. Par interaction, nous désignons les liens, les échanges et les activités se déroulant entre les différents documents. Parmi ces activités, nous présentons la validation comme un processus rigoureux qui démarre dès l’analyse des besoins et continue tout au long de l’élaboration de leur spécification formelle. Au fur et à mesure du développement, des choix sont effectués et les retours des outils de vérification et de validation permettent de détecter des lacunes aussi bien dans les besoins que dans la spécification. L’évolution des deux mondes est décrite via l’introduction d’un nouveau besoin dans un système existant et à travers l’application de patrons de développement. Ces patrons gèrent à la fois les besoins et la spécification formelle associée ; ils sont élaborés à partir de la description de la forme des besoins. Ils facilitent la tâche de développement et aident à éviter les risques d’oublis. Quel que soit le choix, des questions se posent tout au long du développement et permettent de déceler des lacunes, oublis ou ambiguïtés dans l’existant
The development of correct formal specifications for systems and software begins with the analysis and understanding of client requirements. Between these requirements described in natural language and their specification defined in a specific formal language, a gap exists and makes the task of development more and more difficult to accomplish. We are facing two different worlds. This thesis aims to clarify and establish interactions between these two worlds and to evolve them together. By interaction, we mean all the links, exchanges and activities taking place between the different documents. Among these activities, we present the validation as a rigorous process that starts from the requirements analysis and continues throughout the development of their formal specification. As development progresses, choices are made and feedbacks from verification and validation tools can detect shortcomings in requirements as well as in the specification. The evolution of the two worlds is described via the introduction of a new requirement into an existing system and through the application of development patterns. These patterns manage both the requirements and their associated formal specifications ; they are elaborated from the description of the form of the requirements in the client document. They facilitate the task of development and help to avoid the risk of oversights. Whatever the choice, the proposed approach is guided by questions accompanying the evolution of the whole system and makes it possible to detect imperfections, omissions or ambiguities in the existing

Vai alla bibliografia