Letteratura scientifica selezionata sul tema "Systèmes de grandes dimensions – Simulation, Méthodes de"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Systèmes de grandes dimensions – Simulation, Méthodes de".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Systèmes de grandes dimensions – Simulation, Méthodes de":

1

Boutemy, Camille, Arthur Lebée, Mélina Skouras, Marc Mimram e Olivier Baverel. "Modélisation et conception d’un coffrage réutilisable pour la fabrication de coques minces en béton de formes complexes". SHS Web of Conferences 147 (2022): 09003. http://dx.doi.org/10.1051/shsconf/202214709003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La construction de coques minces en béton est coûteuse en matériaux et en main d’œuvre à cause de la fabrication du coffrage qui génère une vaste quantité de déchets. Ces éléments non réutilisables ont un impact négatif sur l’ACV de la construction. Ces difficultés expliquent en partie pourquoi la construction de coques minces est devenue rare à la fin du XXème siècle malgré l’indéniable qualité architecturale qu’elles confèrent aux espaces créés. Cette recherche a pour objectif de modéliser et concevoir un nouveau système de coffrage économe en moyens, pour préfabriquer des éléments surfaciques en béton à partir de structures gonflables. Contrairement à des exemples historiques proposant des gonflables à simple peau, nous proposons de liaisonner deux membranes selon un motif. Composé de courbes, le motif est conçu afin qu’une fois les membranes gonflées, la métrique du plan varie de manière non uniforme et génère une surface en trois dimensions selon le theorema egregium de Gauss. Le dessin du motif d’assemblage est guidé par un outil numérique capable de simuler précisément une forme gonflée en 3D à partir d’un motif de soudure en 2D. Cette méthode de fabrication serait automatisable et transposable à plus grande échelle. L’article décrira les principes géométriques et l’outil de simulation numérique. Nous présenterons une application, la fabrication d’un coffrage gonflable et la construction d’une coque mince en béton.
2

Vautrin, Denis, Irmela Zentner, Guy D’Urso, Géry Hachet, Christophe Vergniault e Dimitri Mercadier. "Démarche de qualification de l’utilisation de la méthode MASW sur les digues par mesures en environnement contrôlé et simulations pour évaluer l’influence de la géométrie 3D des ouvrages". Revue Française de Géotechnique, n. 178 (2024): 2. http://dx.doi.org/10.1051/geotech/2024005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les digues de protection contre les inondations peuvent faire l’objet de campagnes de reconnaissance dans le but d’identifier d’éventuelles zones de faiblesse et de prévenir tout risque de défaillance. La méthode Multi-channel Analysis of Surface Waves (MASW), non invasive et à faible coût, offre un complément intéressant aux sondages géotechniques. Elle est notamment utile pour les ouvrages de grand linéaire car elle est employable en mode « grand rendement ». Cependant, la méthode MASW repose sur une hypothèse de milieu 1D stratifié, c’est-à-dire que la surface du sol ainsi que les interfaces entre les différentes couches de sol sont supposées horizontales. Cela n’est a priori pas compatible avec la topographie 3D de l’ouvrage. Nous avons réalisé une étude de sensibilité des résultats de MASW à la géométrie 3D d’une digue en nous appuyant à la fois sur des mesures expérimentales et sur des simulations. L’ouvrage considéré est une maquette de digue à l’échelle 1. Dans un premier temps, nous avons proposé une méthodologie de simulation permettant de reproduire numériquement la propagation d’une onde sismique en 3D pour la configuration de la maquette, et nous avons validé ce modèle par comparaison entre signaux numériques et acquisitions réelles. Dans un second temps, nous avons considéré différentes configurations de simulation dans le but d’évaluer l’influence de la géométrie 3D de l’ouvrage. D’après les résultats obtenus, la géométrie 3D de la digue entraîne une sous-estimation de la profondeur de l’interface entre la digue et le sol. En revanche, son influence sur l’estimation des caractéristiques des couches est négligeable. Ces résultats sont en accord avec le retour d’expérience terrain d’EDF. D’autres limites restent à approfondir par de nouvelles simulations, en considérant des ouvrages de plus grandes dimensions et à géométries plus complexes. De plus, l’exploitation de la maquette de digue se poursuivra avec la mise en œuvre de méthodes électriques, et avec des travaux sur les méthodes de fusion de données.
3

Sardet, Alix, Nicolas Estre, Daniel Eck, Frédéric Moutet e Emmanuel Payan. "Extension algorithmique du champ de vue tomographique à des objets de toutes dimensions". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28512.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Laboratoire de Mesures Nucléaires de l’institut IRESNE du CEA (centre de Cadarache) réalise dans la cellule d’irradiation CINPHONIE (INB CHICADE) des expertises radiographiques et tomographiques sur des objets denses et/ou de grandes dimensions. Pour ce faire, la cellule est équipée d’un accélérateur linéaire de type SATURNE permettant la production de photons ayant une énergie allant de 9 à 21 MeV (débit de dose maximal à 1 m d’environ 62 Gy/mn). Un banc mécanique de haute précision et d’une capacité de 5 tonnes permet les mouvements en translation (horizontale et verticale) et en rotation d’objets ayant un diamètre maximal de 1,50 m. La détection est assurée au moyen d’un détecteur dit « Grand Champ », composé d’un écran scintillateur de Gadox monté sur un renforçateur en tantale (80 x 60 cm²) et filmé, via un renvoi d’angle, par une caméra sCMOS bas bruit. Compte-tenu des contraintes géométriques de la cellule, le champ de vue du tomographe permettait de mesurer au maximum des objets de diamètre 102 cm en demi-champ. En 2018, une nouvelle méthode de traitement des projections a permis d’étendre le champ de vue à des objets de toute taille. Cette extension du champ de vue est effectuée en enregistrant, pour une coupe tomographique donnée, plusieurs séries de rotation sur 2π obtenues en décalant le centre de rotation de l’objet. Les projections résultantes sont ensuite fusionnées puis utilisées comme données d’entrée des algorithmes de reconstruction. Celle-ci est effectuée au moyen du logiciel RTK (algorithme FDK). Après une phase de validation par simulation au moyen du logiciel MODHERATO, développé au sein du laboratoire, la méthode a été appliquée à divers objets de gros volumes et de densité variées tels que des coques de déchets nucléaires bétonnés (Ø110 cm × 130 cm, d = 2,5) ou encore le crâne du Mammouth de Durfort (110 cm × 110 cm, d = 1,5) appartenant au Museum National d’Histoire Naturelle. Les dimensions maximales des objets sont ainsi définies par les capacités physiques (et non algorithmiques) du système tomographique à disposer d’un rapport signal sur bruit suffisant. Ce rapport dépend uniquement des caractéristiques du faisceau ainsi que du diamètre et de la densité des objets tomographiés.
4

Aigueperse, Antoine, e Wilfrid Baroche. "Etat de l’art des architectures des cellules robotisées pour le contrôle par Ultrasons". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28469.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans beaucoup d’applications industrielles, l’inspection des pièces en composite est réalisée par la méthode Through Transmission Ultrasonics (TTU) par jet d’eau. Généralement, ces méthodes sont déplacées avec des systèmes de mise en position simple (robot cartésien) ou complexe (cellule robotisée). Pour les petites pièces, des outillages spéciaux, pouvant être onéreux, sont conçus permettant de disposer les 2 transducteur de chaque côté de la pièce. Cette méthode n’est pas aisément transposable aux pièces de grandes dimensions ou à l’inspection en petite série. L’autre solution consiste à utiliser 2 robots disposés de part et d’autre de la pièce à inspecter. Les robots doivent être parfaitement synchronisés en position, ce qui complexifie énormément la programmation des robots. Cet article présente plusieurs cellules d’inspection – en réflexion ou transmission – robotisées composées d’un robot ou de 2 robots fonctionnant en mode Leader/Follower. Les architectures matérielles sont analysées et comparées. En seconde partie, une méthode de programmation pour cellule Leader/Follower est présentée à partir de l’application e-hub NDI. Ce logiciel de programmation hors ligne de robots industriels basée sur la CAO intègre des fonctions spécifiques à ce type de cellules telles que la modélisation des outils jet d’eau ou bien le couplage des robots en fonction de l’épaisseur de la pièce à contrôler. Il assiste l’opérateur de contrôle dans la création des programmes robots sans besoin d’expertise en robotique.
5

Khemis, Sabri Ben. "Mesure térahertz de faibles épaisseurs et détection de défauts aux interfaces pour les revêtements industriels : Avancées et applications". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28483.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Guidée par une recherche continue de performance de production, de qualité de fabrication et de réduction des coûts, l’industrie utilise de manière croissante de nouveaux revêtements techniques, hybrides, multifonctionnels, assurant des fonctions critiques (anticorrosion, protection contre les impacts de foudre, blindage, furtivité…). Ces revêtements sont souvent conçus pour optimiser des propriétés thermiques, électromagnétiques, électriques, mais aussi acoustiques ou mécaniques. Leur complexité peut être plus ou moins importante avec la possibilité d’ajouter des fonctions supplémentaires selon leur cadre d’utilisation, comme par exemple l’utilisation en conditions extrêmes. L’aptitude des technologies THz pour la mesure d’épaisseur de revêtements a déjà été démontrée dans de nombreuses publications et en environnement industriel. Les gammes de mesure, la précision ainsi que la cadence d’acquisition et de traitement sont compatibles avec une grande partie des applications industrielles. Le capteur développé par Terakalis est rapide, sans contact et adapté au travail sur des pièces avec des surfaces complexes et de grandes dimensions. Il permet de déterminer l'épaisseur de chaque couche d’un revêtement multicouche et offre des avantages significatifs par rapport aux techniques existantes. Il est par exemple possible de : • Mesurer des épaisseurs multicouches très fines (à partir de 10μm), sur tous types de substrats (métalliques, composites, céramiques…), de manière rapide pour des cartographies, • Détecter des départs de corrosion sur substrat métallique sous le revêtement, • Détecter des défauts de cohésions entre le revêtement et le substrat (délaminations), • Mesurer les épaisseurs de revêtements même humides (gain de temps, détection plus rapide d’éventuels défauts). Cette technologie représente une rupture majeure pour le contrôle de la qualité et des processus dans l'application de peinture et offre des avantages économiques et environnementaux. Lors de cette communication, TERAKALIS, société spécialisée en fabrication d’équipements THz, présentera le principe des ondes TeraHertz, les principales méthodes de mesure, un état de la maturité des systèmes THz actuels avec leurs performances et limites pour la mesure de faibles épaisseurs et la détection de défauts dans les revêtements fins (<1mm) et aux interfaces. Elle s’appuiera sur des cas applicatifs en guise d’illustration.
6

Dorval, Vincent, Nicolas Leymarie, Alexandre Imperiale, Edouard Demaldent, Zakaria Aghenzour e Pierre-Emile Lhuillier. "Simulations numériques à l'échelle de microstructures hétérogènes pour déterminer des propriétés effectives de propagation ultrasonore". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28514.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les méthodes basées sur les rayons permettent de simuler rapidement la propagation d’ondes ultrasonores sur de grandes distances. Elles peuvent être couplées à des modèles de diffraction pour produire des simulations complètes des contrôles ultrasonores mais ne tiennent pas compte des interactions complexes qui se produisent dans des milieux fortement hétérogènes. Or, ces dernières peuvent avoir un impact significatif sur les performances d'inspection. Par comparaison, les simulations par Eléments Finis (EF) à l'échelle de la microstructure tiennent compte de ces interactions mais requièrent des temps de calcul si importants qu’elles sont retreintes à des Volumes Elémentaires Représentatifs (VER) en trois dimensions. Le travail présenté dans cette communication vise à combiner les avantages de ces deux approches. D'une part, des simulations EF réalisées sur des VER de la microstructure sont utilisées pour déterminer les paramètres macroscopiques effectifs tels que les vitesses, les atténuations et les coefficients de diffusion. D'autre part, un modèle basé sur les rayons exploite ces données pour simuler l’inspection ultrasonore visée où les ondes se propagent sur des distances importantes par rapport aux longueurs d'onde et à la taille caractéristique de la microstructure. Un module de simulation dédié a été implémenté dans une version de développement du logiciel CIVA. Il génère des réalisations aléatoires de microstructures pour un ensemble donné de paramètres, pilote des calculs par éléments finis, et post-traite leurs résultats pour obtenir des estimations des propriétés du milieu effectif macroscopique. Les volumes considérés par le modèle éléments finis sont suffisamment petits pour permettre des calculs rapides en trois dimensions, de l’ordre de quelques minutes. Des résultats ont été obtenus pour différents types de microstructures, décrivant des métaux et des bétons. En particulier, cette communication se concentre sur des applications à l’acier qui ont fait l'objet d'études collaboratives entre le CEA et EDF. Cette approche s’avère prometteuse pour combiner la modélisation à l'échelle de la microstructure et les simulations à plus grande échelle.
7

Leclerc, Véronique, Alexandre Tremblay e Chani Bonventre. "Anthropologie médicale". Anthropen, 2020. http://dx.doi.org/10.17184/eac.anthropen.125.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’anthropologie médicale est un sous-champ de l’anthropologie socioculturelle qui s’intéresse à la pluralité des systèmes médicaux ainsi qu’à l’étude des facteurs économiques, politiques et socioculturels ayant un impact sur la santé des individus et des populations. Plus spécifiquement, elle s’intéresse aux relations sociales, aux expériences vécues, aux pratiques impliquées dans la gestion et le traitement des maladies par rapport aux normes culturelles et aux institutions sociales. Plusieurs généalogies de l’anthropologie médicale peuvent être retracées. Toutefois, les monographies de W.H.R. Rivers et d’Edward Evans-Pritchard (1937), dans lesquelles les représentations, les connaissances et les pratiques en lien avec la santé et la maladie étaient considérées comme faisant intégralement partie des systèmes socioculturels, sont généralement considérées comme des travaux fondateurs de l’anthropologie médicale. Les années 1950 ont marqué la professionnalisation de l’anthropologie médicale. Des financements publics ont été alloués à la discipline pour contribuer aux objectifs de santé publique et d’amélioration de la santé dans les communautés économiquement pauvres (Good 1994). Dans les décennies qui suivent, les bases de l’anthropologie médicale sont posées avec l’apparition de nombreuses revues professionnelles (Social Science & Medicine, Medical Anthropology, Medical Anthropology Quarterly), de manuels spécialisés (e.g. MacElroy et Townsend 1979) et la formation du sous-groupe de la Society for Medical Anthropology au sein de l’American Anthropological Association (AAA) en 1971, qui sont encore des points de références centraux pour le champ. À cette époque, sous l’influence des théories des normes et du pouvoir proposées par Michel Foucault et Pierre Bourdieu, la biomédecine est vue comme un système structurel de rapports de pouvoir et devient ainsi un objet d’étude devant être traité symétriquement aux autres systèmes médicaux (Gaines 1992). L’attention portée aux théories du biopouvoir et de la gouvernementalité a permis à l’anthropologie médicale de formuler une critique de l’hégémonie du regard médical qui réduit la santé à ses dimensions biologiques et physiologiques (Saillant et Genest 2007 : xxii). Ces considérations ont permis d’enrichir, de redonner une visibilité et de l’influence aux études des rationalités des systèmes médicaux entrepris par Evans-Pritchard, et ainsi permettre la prise en compte des possibilités qu’ont les individus de naviguer entre différents systèmes médicaux (Leslie 1980; Lock et Nguyen 2010 : 62). L’aspect réducteur du discours biomédical avait déjà été soulevé dans les modèles explicatifs de la maladie développés par Arthur Kleinman, Leon Eisenberg et Byron Good (1978) qui ont introduit une distinction importante entre « disease » (éléments médicalement observables de la maladie), « illness » (expériences vécues de la maladie) et « sickness » (aspects sociaux holistes entourant la maladie). Cette distinction entre disease, illness et sickness a joué un rôle clé dans le développement rapide des perspectives analytiques de l’anthropologie médicale de l’époque, mais certaines critiques ont également été formulées à son égard. En premier lieu, Allan Young (1981) formule une critique des modèles explicatifs de la maladie en réfutant l'idée que la rationalité soit un model auquel les individus adhèrent spontanément. Selon Young, ce modèle suggère qu’il y aurait un équivalant de structures cognitives qui guiderait le développement des modèles de causalité et des systèmes de classification adoptées par les personnes. Au contraire, il propose que les connaissances soient basées sur des actions, des relations sociales, des ressources matérielles, avec plusieurs sources influençant le raisonnement des individus qui peuvent, de plusieurs manières, diverger de ce qui est généralement entendu comme « rationnel ». Ces critiques, ainsi que les études centrées sur l’expérience des patients et des pluralismes médicaux, ont permis de constater que les stratégies adoptées pour obtenir des soins sont multiples, font appel à plusieurs types de pratiques, et que les raisons de ces choix doivent être compris à la lumière des contextes historiques, locaux et matériaux (Lock et Nguyen 2010 : 63). Deuxièmement, les approches de Kleinman, Eisenberger et Good ont été critiquées pour leur séparation artificielle du corps et de l’esprit qui représentait un postulat fondamental dans les études de la rationalité. Les anthropologues Nancy Scheper-Hughes et Margeret Lock (1987) ont proposé que le corps doit plutôt être abordé selon trois niveaux analytiques distincts, soit le corps politique, social et individuel. Le corps politique est présenté comme étant un lieu où s’exerce la régulation, la surveillance et le contrôle de la différence humaine (Scheper-Hughes et Lock 1987 : 78). Cela a permis aux approches féministes d’aborder le corps comme étant un espace de pouvoir, en examinant comment les discours sur le genre rendent possible l’exercice d’un contrôle sur le corps des femmes (Manderson, Cartwright et Hardon 2016). Les premiers travaux dans cette perspective ont proposé des analyses socioculturelles de différents contextes entourant la reproduction pour contrecarrer le modèle dominant de prise en charge médicale de la santé reproductive des femmes (Martin 1987). Pour sa part, le corps social renvoie à l’idée selon laquelle le corps ne peut pas être abordé simplement comme une entité naturelle, mais qu’il doit être compris en le contextualisant historiquement et socialement (Lupton 2000 : 50). Finalement, considérer le corps individuel a permis de privilégier l’étude de l’expérience subjective de la maladie à travers ses variations autant au niveau individuel que culturel. Les études de l’expérience de la santé et la maladie axées sur l’étude des « phénomènes tels qu’ils apparaissent à la conscience des individus et des groupes d’individus » (Desjarlais et Throop 2011 : 88) se sont avérées pertinentes pour mieux saisir la multitude des expériences vécues des états altérés du corps (Hofmann et Svenaeus 2018). En somme, les propositions de ces auteurs s’inscrivent dans une anthropologie médicale critique qui s’efforce d’étudier les inégalités socio-économiques (Scheper-Hughes 1992), l’accès aux institutions et aux savoirs qu’elles produisent, ainsi qu’à la répartition des ressources matérielles à une échelle mondiale (Manderson, Cartwright et Hardon 2016). Depuis ses débuts, l’anthropologie médicale a abordé la santé globale et épidémiologique dans le but de faciliter les interventions sur les populations désignées comme « à risque ». Certains anthropologues ont développé une perspective appliquée en épidémiologie sociale pour contribuer à l’identification de déterminants sociaux de la santé (Kawachi et Subramanian 2018). Plusieurs de ces travaux ont été critiqués pour la culturalisation des pathologies touchant certaines populations désignées comme étant à risque à partir de critères basés sur la stigmatisation et la marginalisation de ces populations (Trostle et Sommerfeld 1996 : 261). Au-delà des débats dans ce champ de recherche, ces études ont contribué à la compréhension des dynamiques de santé et de maladie autant à l’échelle globale, dans la gestion des pandémies par l’Organisation Mondiale de la Santé (OMS), qu’aux échelles locales avec la mise en place de campagnes de santé publique pour faciliter l’implantation de mesures sanitaires, telles que la vaccination (Dubé, Vivion et Macdonald 2015). L’anthropologie a contribué à ces discussions en se penchant sur les contextes locaux des zoonoses qui sont des maladies transmissibles des animaux vertébrés aux humains (Porter 2013), sur la résistance aux antibiotiques (Landecker 2016), comme dans le cas de la rage et de l’influenza (Wolf 2012), sur les dispositifs de prévention mis en place à une échelle mondiale pour éviter l’apparition et la prolifération d’épidémies (Lakoff 2010), mais aussi sur les styles de raisonnement qui sous-tendent la gestion des pandémies (Caduff 2014). Par ailleurs, certains auteur.e.s ont utilisé le concept de violence structurelle pour analyser les inégalités socio-économiques dans le contexte des pandémies de maladies infectieuses comme le sida, la tuberculose ou, plus récemment, l’Ébola (Fassin 2015). Au-delà de cet aspect socio-économique, Aditya Bharadwaj (2013) parle d’une inégalité épistémique pour caractériser des rapports inégaux dans la production et la circulation globale des savoirs et des individus dans le domaine de la santé. Il décrit certaines situations comme des « biologies subalternes », c’est à dire des états de santé qui ne sont pas reconnus par le système biomédical hégémonique et qui sont donc invisibles et vulnérables. Ces « biologies subalternes » sont le revers de citoyennetés biologiques, ces dernières étant des citoyennetés qui donnes accès à une forme de sécurité sociale basée sur des critères médicaux, scientifiques et légaux qui reconnaissent les dommages biologiques et cherche à les indemniser (Petryna 2002 : 6). La citoyenneté biologique étant une forme d’organisation qui gravite autour de conditions de santé et d’enjeux liés à des maladies génétiques rares ou orphelines (Heath, Rapp et Taussig 2008), ces revendications mobilisent des acteurs incluant les institutions médicales, l’État, les experts ou encore les pharmaceutiques. Ces études partagent une attention à la circulation globale des savoirs, des pratiques et des soins dans la translation — ou la résistance à la translation — d’un contexte à un autre, dans lesquels les patients sont souvent positionnés entre des facteurs sociaux, économiques et politiques complexes et parfois conflictuels. L’industrie pharmaceutique et le développement des technologies biomédicales se sont présentés comme terrain important et propice pour l’analyse anthropologique des dynamiques sociales et économiques entourant la production des appareils, des méthodes thérapeutiques et des produits biologiques de la biomédecine depuis les années 1980 (Greenhalgh 1987). La perspective biographique des pharmaceutiques (Whyte, Geest et Hardon 2002) a consolidé les intérêts et les approches dans les premières études sur les produits pharmaceutiques. Ces recherches ont proposé de suivre la trajectoire sociale des médicaments pour étudier les contextes d’échanges et les déplacements dans la nature symbolique qu’ont les médicaments pour les consommateurs : « En tant que choses, les médicaments peuvent être échangés entre les acteurs sociaux, ils objectivent les significations, ils se déplacent d’un cadre de signification à un autre. Ce sont des marchandises dotées d’une importance économique et de ressources recelant une valeur politique » (traduit de Whyte, Geest et Hardon 2002). D’autres ont davantage tourné leur regard vers les rapports institutionnels, les impacts et le fonctionnement de « Big Pharma ». Ils se sont intéressés aux processus de recherche et de distribution employés par les grandes pharmaceutiques à travers les études de marché et les pratiques de vente (Oldani 2014), l’accès aux médicaments (Ecks 2008), la consommation des produits pharmaceutiques (Dumit 2012) et la production de sujets d’essais cliniques globalisés (Petryna, Lakoff et Kleinman 2006), ainsi qu’aux enjeux entourant les réglementations des brevets et du respect des droits politiques et sociaux (Ecks 2008). L’accent est mis ici sur le pouvoir des produits pharmaceutiques de modifier et de changer les subjectivités contemporaines, les relations familiales (Collin 2016), de même que la compréhensions du genre et de la notion de bien-être (Sanabria 2014). Les nouvelles technologies biomédicales — entre autres génétiques — ont permis de repenser la notion de normes du corps en santé, d'en redéfinir les frontières et d’intervenir sur le corps de manière « incorporée » (embodied) (Haraway 1991). Les avancées technologiques en génomique qui se sont développées au cours des trois dernières décennies ont soulevé des enjeux tels que la généticisation, la désignation de populations/personnes « à risque », l’identification de biomarqueurs actionnables et de l’identité génétique (TallBear 2013 ; Lloyd et Raikhel 2018). Au départ, le modèle dominant en génétique cherchait à identifier les gènes spécifiques déterminant chacun des traits biologiques des organismes (Lock et Nguyen 2010 : 332). Cependant, face au constat que la plupart des gènes ne codaient par les protéines responsables de l’expression phénotypique, les modèles génétiques se sont depuis complexifiés. L’attention s’est tournée vers l’analyse de la régulation des gènes et de l’interaction entre gènes et maladies en termes de probabilités (Saukko 2017). Cela a permis l’émergence de la médecine personnalisée, dont les interventions se basent sur l’identification de biomarqueurs personnels (génétiques, sanguins, etc.) avec l’objectif de prévenir l’avènement de pathologies ou ralentir la progression de maladies chroniques (Billaud et Guchet 2015). Les anthropologues de la médecine ont investi ces enjeux en soulevant les conséquences de cette forme de médecine, comme la responsabilisation croissante des individus face à leur santé (Saukko 2017), l’utilisation de ces données dans l’accès aux assurances (Hoyweghen 2006), le déterminisme génétique (Landecker 2011) ou encore l’affaiblissement entre les frontières de la bonne santé et de la maladie (Timmermans et Buchbinder 2010). Ces enjeux ont été étudiés sous un angle féministe avec un intérêt particulier pour les effets du dépistage prénatal sur la responsabilité parentale (Rapp 1999), l’expérience de la grossesse (Rezende 2011) et les gestions de l’infertilité (Inhorn et Van Balen 2002). Les changements dans la compréhension du modèle génomique invitent à prendre en considération plusieurs variables en interaction, impliquant l’environnement proche ou lointain, qui interagissent avec l’expression du génome (Keller 2014). Dans ce contexte, l’anthropologie médicale a développé un intérêt envers de nouveaux champs d’études tels que l’épigénétique (Landecker 2011), la neuroscience (Choudhury et Slaby 2016), le microbiome (Benezra, DeStefano et Gordon 2012) et les données massives (Leonelli 2016). Dans le cas du champ de l’épigénétique, qui consiste à comprendre le rôle de l’environnement social, économique et politique comme un facteur pouvant modifier l’expression des gènes et mener au développement de certaines maladies, les anthropologues se sont intéressés aux manières dont les violences structurelles ancrées historiquement se matérialisent dans les corps et ont des impacts sur les disparités de santé entre les populations (Pickersgill, Niewöhner, Müller, Martin et Cunningham-Burley 2013). Ainsi, la notion du traumatisme historique (Kirmayer, Gone et Moses 2014) a permis d’examiner comment des événements historiques, tels que l’expérience des pensionnats autochtones, ont eu des effets psychosociaux collectifs, cumulatifs et intergénérationnels qui se sont maintenus jusqu’à aujourd’hui. L’étude de ces articulations entre conditions biologiques et sociales dans l’ère « post-génomique » prolonge les travaux sur le concept de biosocialité, qui est défini comme « [...] un réseau en circulation de termes d'identié et de points de restriction autour et à travers desquels un véritable nouveau type d'autoproduction va émerger » (Traduit de Rabinow 1996:186). La catégorie du « biologique » se voit alors problématisée à travers l’historicisation de la « nature », une nature non plus conçue comme une entité immuable, mais comme une entité en état de transformation perpétuelle imbriquée dans des processus humains et/ou non-humains (Ingold et Pálsson 2013). Ce raisonnement a également été appliqué à l’examen des catégories médicales, conçues comme étant abstraites, fixes et standardisées. Néanmoins, ces catégories permettent d'identifier différents états de la santé et de la maladie, qui doivent être compris à la lumière des contextes historiques et individuels (Lock et Nguyen 2010). Ainsi, la prise en compte simultanée du biologique et du social mène à une synthèse qui, selon Peter Guarnaccia, implique une « compréhension du corps comme étant à la fois un système biologique et le produit de processus sociaux et culturels, c’est-à-dire, en acceptant que le corps soit en même temps totalement biologique et totalement culturel » (traduit de Guarnaccia 2001 : 424). Le concept de « biologies locales » a d’abord été proposé par Margaret Lock, dans son analyse des variations de la ménopause au Japon (Lock 1993), pour rendre compte de ces articulations entre le matériel et le social dans des contextes particuliers. Plus récemment, Niewöhner et Lock (2018) ont proposé le concept de biologies situées pour davantage contextualiser les conditions d’interaction entre les biologies locales et la production de savoirs et de discours sur celles-ci. Tout au long de l’histoire de la discipline, les anthropologues s’intéressant à la médecine et aux approches de la santé ont profité des avantages de s’inscrire dans l’interdisciplinarité : « En anthropologie médical, nous trouvons qu'écrire pour des audiences interdisciplinaires sert un objectif important : élaborer une analyse minutieuse de la culture et de la santé (Dressler 2012; Singer, Dressler, George et Panel 2016), s'engager sérieusement avec la diversité globale (Manderson, Catwright et Hardon 2016), et mener les combats nécessaires contre le raccourcies des explications culturelles qui sont souvent déployées dans la littérature sur la santé (Viruell-Fuentes, Miranda et Abdulrahim 2012) » (traduit de Panter-Brick et Eggerman 2018 : 236). L’anthropologie médicale s’est constituée à la fois comme un sous champ de l’anthropologie socioculturelle et comme un champ interdisciplinaire dont les thèmes de recherche sont grandement variés, et excèdent les exemples qui ont été exposés dans cette courte présentation.

Tesi sul tema "Systèmes de grandes dimensions – Simulation, Méthodes de":

1

Tiomoko, ali Hafiz. "Nouvelles méthodes pour l’apprentissage non-supervisé en grandes dimensions". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC074/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Motivée par les récentes avancées dans l'analyse théorique des performances des algorithmes d'apprentissage automatisé, cette thèse s'intéresse à l'analyse de performances et à l'amélioration de la classification nonsupervisée de données et graphes en grande dimension. Spécifiquement, dans la première grande partie de cette thèse, en s'appuyant sur des outils avancés de la théorie des grandes matrices aléatoires, nous analysons les performances de méthodes spectrales sur des modèles de graphes réalistes et denses ainsi que sur des données en grandes dimensions en étudiant notamment les valeurs propres et vecteurs propres des matrices d'affinités de ces données. De nouvelles méthodes améliorées sont proposées sur la base de cette analyse théorique et démontrent à travers de nombreuses simulations que leurs performances sont meilleures comparées aux méthodes de l'état de l'art. Dans la seconde partie de la thèse, nous proposons un nouvel algorithme pour la détection de communautés hétérogènes entre plusieurs couches d'un graphe à plusieurs types d'interaction. Une approche bayésienne variationnelle est utilisée pour approximer la distribution apostériori des variables latentes du modèle. Toutes les méthodes proposées dans cette thèse sont utilisées sur des bases de données synthétiques et sur des données réelles et présentent de meilleures performances en comparaison aux approches standard de classification dans les contextes susmentionnés
Spurred by recent advances on the theoretical analysis of the performances of the data-driven machine learning algorithms, this thesis tackles the performance analysis and improvement of high dimensional data and graph clustering. Specifically, in the first bigger part of the thesis, using advanced tools from random matrix theory, the performance analysis of spectral methods on dense realistic graph models and on high dimensional kernel random matrices is performed through the study of the eigenvalues and eigenvectors of the similarity matrices characterizing those data. New improved methods are proposed and are shown to outperform state-of-the-art approaches. In a second part, a new algorithm is proposed for the detection of heterogeneous communities from multi-layer graphs using variational Bayes approaches to approximate the posterior distribution of the sought variables. The proposed methods are successfully applied to synthetic benchmarks as well as real-world datasets and are shown to outperform standard approaches to clustering in those specific contexts
2

Audinot, Timothée. "Développement d’un modèle de dynamique forestière à grande échelle pour simuler les forêts françaises dans un contexte non-stationnaire". Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0179.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Contexte. Depuis la révolution industrielle, les forêts européennes connaissent une dynamique d’expansion de leur surface et de leur stock de bois. Cette expansion, conjuguée au changement climatique, entraîne des modifications des processus de dynamique forestière. L’émergence de la bioéconomie européenne augure dans ce contexte d’évolutions des stratégies de gestion forestière à l’échelle européenne et nationale. La simulation des ressources forestières futures et de leur pilotage par des modèles à grande échelle spatiale est donc indispensable pour fournir des outils de planification stratégique. En France, les ressources forestières se caractérisent par une diversité marquée par rapport à d’autres pays européens. Le modèle de dynamique forestière MARGOT (MAtrix model of forest Resource Growth and dynamics On the Territory scale), a été mis en place par l’inventaire forestier national (IFN) en 1993 pour simuler les ressources forestières françaises à partir des données de cet inventaire, mais n’a été l’objet que de travaux de recherche restreints depuis son origine. Ses simulations restent limitées à un horizon temporel de moyen terme (inférieur à 30 ans), sous des scénarios de gestion de type business as usual, et ne tenant pas compte des contextes forestiers et environnementaux non-stationnaires.Objectifs. Cette thèse a pour ambition générale de consacrer un effort de recherche de rupture sur le modèle MARGOT, afin d’aborder les enjeux forestiers actuels. Les objectifs précis sont : i) de déterminer la capacité du modèle MARGOT à restituer l’expansion forestière française sur une période rétrospective longue (1971-2016), ii) de prendre en compte de façon synthétique de l’hétérogénéité des forêts à grande échelle, iii) de prendre en compte le phénomène de densification des forêts dans la dynamique démographique, iv) d’inclure les forçages climatiques externes dans la dynamique de croissance des forêts, v) dans un contexte devenu très incertain, de pouvoir mesurer le niveau d’incertitude des simulations résultant de l’erreur d’échantillonnage de l’inventaire forestier au regard des évolutions tendancielles considérées. Le développement de scénarios de gestion forestière reste hors du champ de ce travail. Principaux résultats. Une méthode générique de partition des forêts selon leur hétérogénéité géographique et compositionnelle a été mise en place, avec une vocation applicative à d’autres contextes forestiers européens. Une méthode de propagation de l’incertitude d’échantillonnage aux paramètres du modèle, puis aux simulations, a été développée à partir d’approches de ré-échantillonnage de données et de modélisation d’erreurs. Une approche originale d’intégration des phénomènes de densité-dépendance démographique, fondée sur une métrique de densité et la réintroduction d’un concept de « peuplement forestier » adapté à ce modèle, a été développée. Une stratégie d’intégration des forçages climatiques des paramètres démographiques du modèle a été développée à partir d’une approche d’hybridation entrées-sorties avec le modèle fonctionnel CASTANEA pour un sous-ensemble de la forêt française incluant les espèces de chênes, de hêtre, d’épicéa commun, et de pin sylvestre. L’ensemble de ces développements a permis de réduire très notablement le biais de prédiction du modèle initial. Conclusions. Les développements consentis font du modèle MARGOT un outil d’exploration et de planification plus fiable des ressources forestières, et reposant sur une approche de modélisation originale et unique en Europe. L’utilisation de statistiques forestières anciennes permettra d’évaluer le modèle et de simuler le stock de carbone de la forêt française sur un horizon temporel plus importante (de plus de 100 ans). Une évaluation approfondie des performances de ce nouveau modèle par des simulations intensives doit être conduite
Context. Since the industrial revolution, European forests have shown expansion of their area and growing stock. This expansion, together with climate change, drive changes in the processes of forest dynamic. The emergence of a European bioeconomy strategy suggests new developments of forest management strategies at European and national levels. Simulating future forest resources and their management with large-scale models is therefore essential to provide strategic planning support tools. In France, forest resources show high diversity as compared with other European countries' forests. The MARGOT forest dynamic model (MAtrix model of forest Resource Growth and dynamics On the Territory scale), was developed by the national forest inventory (IFN) in 1993 to simulate French forest resources from data of this inventory, but has been the subject of restricted developments, and simulations remain limited to a time horizon shorter than 30 years, under “business as usual” management scenarios, and not taking into account non-stationary forest and environmental contexts.Aims. The general ambition of this thesis was to consent a significant development effort on MARGOT model, in order to tackle current forestry issues. The specific objectives were: i) to assess the capacity of MARGOT to describe French forest expansion over a long retrospective period (1971-2016), ii) to take into account the heterogeneity of forests at large-scale in a holistic way, iii) to account for the impacts of forest densification in demographic dynamic processes, iv) to encompass external climatic forcing in forest growth, v) in a very uncertain context, to be able to quantify NFI sampling uncertainty in model parameters and simulations with respect to the magnitude of other trends considered. The development of forest management scenarios remained outside the scope of this work.Main results. A generic method for forest partitioning according to their geographic and compositional heterogeneity has been implemented. This method is intended to be applied to other European forest contexts. A method of propagating sampling uncertainty to model parameters and simulations has been developed from data resampling and error modelling approaches. An original approach to integrating density-dependence in demographic processes has been developed, based on a density metric and the reintroduction of forest stand entities adapted to the model. A strategy for integrating climate forcing of model demographic parameters was developed based on an input-output coupling approach with the process-based model CASTANEA, for a subset of French forests including oak, beech, Norway spruce, and Scots pine forests. All of these developments significantly reduced the prediction bias of the initial model.Conclusions. These developments make MARGOT a much more reliable forest resource assessment tool, and are based on an original modeling approach that is unique in Europe. The use of ancient forest statistics will make it possible to evaluate the model and simulate the carbon stock of French forests over a longer time horizon (over 100 years). Intensive simulations to assess the performance of this new model must be done
3

Pruvost, Florent. "Méthodes numériques parallèles pour la simulation des réseaux électriques de grandes tailles". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2012. http://www.theses.fr/2012ECAP0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse de stabilité en régime transitoire du réseau de transport électrique permet de contrôler le bon retour au régime stationnaire du système soumis à une perturbation. Cette analyse systématique des systèmes de réseaux en développement permet notamment d’optimiser la production et la consommation de l’énergie électrique, et de protéger les équipements tels que les centrales électriques, les transformateurs, les lignes haute-tension, etc. Afin d’améliorer la stabilité, la robustesse et la viabilité de ces systèmes, la tendance est à l’interconnexion des réseaux de transport régionaux et nationaux, et ainsi, au développement et à l’analyse de systèmes toujours plus grands. Le problème de stabilité électrique peut être simulé numériquement grâce à l’intégration d’un système d’équations algébro-différentielles non-linéaire et raide. Lorsque le problème traité est très grand, la simulation numérique devient très coûteuse en temps de calcul et ralentit considérablement le travail des professionnels du secteur. Cette thèse a pour but de proposer, d’étudier, et de développer des méthodes innovantes de calcul parallèle pour la résolution des systèmes d’équations différentielles issus de la simulation de grands réseaux électriques tel que le réseau européen. Dans ce manuscrit, on livre une analyse des propriétés de ces systèmes assez spécifiques : creux, irréguliers, non-linéaires, raides et hétérogènes. On discute notamment de la structure particulière de ces systèmes qui rend attrayante l’application d’une méthode de décomposition de domaine. On étudie ainsi plusieurs méthodes de parallélisation en espace : la parallélisation fine de chaque opération coûteuse, la résolution du système non-linéaire par décomposition en sous-réseaux faiblement couplés, d’abord sur chaque étape d’intégration, puis par méthode de relaxation d’ondes. On aborde aussi la parallélisation en temps de type algorithme Pararéel ainsi qu’une méthode parallèle espace-temps bénéficiant des propriétés couplées des méthodes de relaxation d’ondes et de Pararéel. Dans ces travaux, nous proposons des méthodes assurant la convergence rapide des méthodes de décomposition de domaine quel que soit le nombre de sous-domaines et de processeurs employés. Nous introduisons pour cela des techniques de préconditionnement en espace adéquates afin d’améliorer la scalabilité des méthodes de parallélisation envisagées
Power system transient stability analysis enables to control the return to equilibrium of the system subjected to a disturbance. This systematic analysis of developing transport networks allows to optimize the production and the consumption of electric power and to protect the equipments such as power plants, transformers, highvoltage lines and so on. In order to improve the stability, the robustness, and the sustainability of these systems, a worldwide trend is to interconnect regional and national transport networks. This leads to analyze ever larger systems. The power-stability problem can be numerically simulated owing to the integration of a differential-algebraic system which is nonlinear and stiff. When considering a very large problem, numerical simulation is very time consuming and significantly slows down the work of professionals. This thesis aims at studying innovative parallel computing methods for the resolution of differential systems arising from the transient stability analysis of large power systems such as the European Transport Network. In this manuscript, we first deliver an analysis of the properties of these rather specific systems: sparse, irregular, nonlinear, stiff, and heterogeneous. We discuss the particular structure of these systems making the application of a domain decomposition method interesting. Thus, we study several space parallelization methods: the fine parallelization of each costly tasks, the resolution of the nonlinear system by decomposition into weakly coupled subnetworks, first on each integration step separately, and then by waveform relaxation method. We also address the time parallelization with a Parareal-based algorithm and a space-time parallel method which benefits from the coupled properties of waveform relaxation and Parareal methods. In this work, we focus on methods which ensure a fast convergence of domain decomposition methods whatever the number of subdomains/processors used. In order to achieve such a goal, we introduce space preconditioning techniques to improve the scalability of the parallelization methods considered
4

Khalil, Wissam. "Contribution à la modélisation graphique de système de systèmes". Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10021/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de recherche initié dans cette thèse de doctorat s’inscrit dans le contexte du projet européen InTraDE (Intelligent Transportation for Dynamic Environment). Les aspects théoriques développés concernent la modélisation graphique de Système de systèmes (SdS). Ces derniers peuvent être modélisés sur plusieurs niveaux, allant du niveau microscopique au niveau macroscopique. Une approche à base d'hypergraphe est utilisée pour représenter les différents niveaux hiérarchiques d’un SdS ainsi que les propriétés fondamentales qui le définissent : l'indépendance, la coopération, la dispersion, et l'évolution des composants systèmes qui le constituent. La modélisation graphique proposée permet d’élaborer une stratégie de supervision en ligne en suivant les parcours ascendant et descendant de l'hypergraphe. Pour gérer le fonctionnement global des composants systèmes à un niveau de modélisation donné, un modèle graphique dynamique est extrait de l'hypergraphe. Ce dernier, permet d’appliquer une stratégie d'optimisation en ligne. Appliquée au système de transport intelligent, cette approche permet de déterminer à chaque instant le temps que mettra le véhicule autonome et intelligent pour atteindre sa cible lorsqu’il évolue dans un environnement évoluant en permanence
This work has been realized in the framework of the European project InTraDE (Intelligent Transportation for Dynamic Environment). The main scientific contribution focuses on graphical modeling of System of Systems (SoS) in the engineering field. To model such systems, a graphical method based on hypergraph approach is proposed. Hypergraphs are used to describe the multiple hierarchical levels of a SoS and to describe its associated fundamental properties such as: the independence, cooperation, dispersion and the evolution of the component systems. Through this graphical modeling, online supervision strategies can be directly deduced. To manage the global operating of the component systems at a specific level, a dynamic graphical model is extracted from the hypergraph. This later allows the elaboration of an online optimization strategy. As a case study, an intelligent transportation system is considered. An online optimization algorithm currently updates, the time used for each intelligent autonomous vehicle to reach its target, in a permanently evolving environment
5

Guedot, Lola. "Développement de méthodes numériques pour la caractérisation des grandes structures tourbillonnaires dans les brûleurs aéronautiques : application aux systèmes d'injection multi-points". Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0017/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réduction des émissions polluantes des turboréacteurs nécessite une plus grande maîtrise du dimensionnement du système d’injection du mélange air-carburant au sein de la chambre de combustion.L’objectif de la thèse est d’améliorer la compréhension de la dynamique des écoulements swirlés, rencontrés dans les chambres aéronautiques. La simulation aux grandes échelles, qui exploite les super-calculateurs les plus puissants, est devenue un outil d’analyse incontournable. Cependant, la taille des simulations et le volume de données générées rendent difficile l’extraction des phénomènes à grande échelle. A cette fin, de nouvelles méthodes de post-traitement parallèles qui permettent d’accéder à l’évolution temporelle des structures tourbillonnaires dans des géométries complexes sont proposées.Ces méthodes sont appliquées à l’étude de la dynamique de flammes swirlées diphasiques dans lesquelles les structures cohérentes interagissent avec la zone réactive et le brouillard de gouttes
The reduction of pollutant emissions of aeronautical devices requires to optimize the design of the injection systems in the combustion chamber. The objective of this work is to improve the understandingof the flow dynamics in swirl stabilized burners. Large Eddy Simulation has become a major tool for the analysis of such flows. The steady increase in computational power enables to perform high-fidelity simulations, that generates a large amount of data, making it difficult to extract relevant information regarding the large scale phenomena. To this aim, massively parallel post-processing methods, suited for complex geometries, were developed in order to extract large-scale structures in turbulent flows. These methods were applied to simulations of spray flames in swirl burners, to get a better insight of how the large scale structures interact with the flame topology and the spray dynamics
6

Haidar, Azzam. "Sur l'extensibilité parallèle de solveurs linéaires hybrides pour des problèmes tridimensionels de grandes tailles". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2008. http://tel.archives-ouvertes.fr/tel-00347948.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La résolution de très grands systèmes linéaires creux est une composante de base algorithmique fondamentale dans de nombreuses applications scientifiques en calcul intensif. La résolution per- formante de ces systèmes passe par la conception, le développement et l'utilisation d'algorithmes parallèles performants. Dans nos travaux, nous nous intéressons au développement et l'évaluation d'une méthode hybride (directe/itérative) basée sur des techniques de décomposition de domaine sans recouvrement. La stratégie de développement est axée sur l'utilisation des machines mas- sivement parallèles à plusieurs milliers de processeurs. L'étude systématique de l'extensibilité et l'efficacité parallèle de différents préconditionneurs algébriques est réalisée aussi bien d'un point de vue informatique que numérique. Nous avons comparé leurs performances sur des systèmes de plusieurs millions ou dizaines de millions d'inconnues pour des problèmes réels 3D .
7

Le, Lepvrier Benoît. "Hybridation de la FDTD à Double Grille (DG-FDTD) avec l'Optique Physique Itérative (IPO) - Application à la simulation d'antennes environnées positionnées sur des platesformes de grandes dimensions". Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de cette thèse ont été consacrés à l'extension du domaine d'application de la FDTD à Grille Double (DG-FDTD) via son hybridation avec l'Optique Physique Itérative. Ces recherches ont été motivées par le besoin d'évaluer précisément et efficacement le diagramme d'antenne environnées installées sur des plates-Formes de grandes dimensions (satellite, véhicule, lanceur spatial). Lors du tour d'horizon consacré aux méthodes numériques pouvant intervenir dans la résolution de ce type de problème, la DG-FDTD a révélé des caractéristiques intéressantes en permettant des analyses large bande rapides et précises d’antennes avec un environnement proche complexe. Cependant, sa formulation rigoureuse entraîne des besoins importants en ressources informatiques pour analyser des problèmes de grandes dimensions électriques. Les travaux présentés dans ce manuscrit précisent les limites de son domaine d'application. Ils mettent finalement en avant son incapacité à résoudre seule des problèmes d'antenne sur plateforme. En réponse à cette limitation, un nouveau schéma hybride associant la DG-FDTD avec une méthode asymptotique est proposé. La méthode DG-FDTD/IPO ainsi créée décompose la simulation du problème complet en deux simulations successives. L'antenne et son environnement proche sont tout d'abord simulés rigoureusement avec la DG-FDTD puis la plateforme est analysée efficacement avec l'IPO. Les deux simulations sont interfacées en utilisant le principe d’équivalence. Après avoir validé cette nouvelle méthode sur un scénario canonique, elle est appliquée au calcul de rayonnement électromagnétique en champ lointain dans deux scénarios d’antenne environnée sur porteur (antenne sur véhicule notamment). Deux améliorations de la DG-FDTD/IPO sont finalement proposées dans ce manuscrit. La première est consacrée à la prise en compte grossière des couplages retours entre l'environnement proche de l'antenne et la plate-Forme. Cette amélioration repose sur la redescription grossière de l’environnement proche de l’antenne dans la simulation IPO. La seconde amélioration concerne la modélisation des courants sur les parties ombrées de la plate-Forme dans la simulation IPO. Cette amélioration est motivée par le besoin d'analyser précisément des scénarios de type antenne sur lanceur spatial. En effet, l'IPO ne calcule pas les courants sur les zones ombrées, or dans ce type de problème elles représentent la majeure partie de la plate-Forme. Une nouvelle méthode basée sur l'IPO, et appelée Traitement Séquentielle des Domaines (TSD), est donc proposée pour répondre au besoin exprimé plus haut. Après avoir validé cette nouvelle méthode sur un cas simple impliquant un cylindre, elle est appliquée avec succès à l'analyse d'une plate-Forme de type lanceur spatial
This thesis aims at extending the Dual-Grid FDTD (DG-FDTD) application domain via its hybridization with the Iterative Physical Optics (IPO) method. This research was motivated by the need to evaluate accurately and efficiently the antenna pattern of surrounded antennas installed on large platforms (satellite, vehicle, space launcher). Overview on numerical method involved in this class of problem revealed DG-FDTD has interesting features. This method allows precise and efficient wide-Band simulations of surrounded antennas. However, this method remains costly for electrically large problems, especially because of its rigorous formulation. This thesis assessed the limitations of DG-FDTD and then put forward its inability to resolve antenna on platform problems. To answer this issue, a hybrid scheme combining DG-FDTD with IPO is proposed in this thesis. DG-FDTD/IPO divides the initial simulation into two successive simulations. The antenna and its vicinity are firstly analyzed with DG-FDTD, and then IPO is used to analyze the platform. The two simulations are interfaced using the equivalence principle. This new method is first validated using a canonical scenario. Then, it is applied to the computation of electromagnetic radiation pattern in two antenna on platform problems (antenna on vehicle especially). The method is then exploited to effectively analyze the radiation pattern of a surrounded antenna mounted on a platform. Two improvements are finely proposed in this thesis for DGFDTD/ IPO. The first one aims at taking into account for the backward coupling between the antenna region and the metallic platform. This improvement implies a coarse description of the antenna region in the IPO simulation. The second improvement concerns the modeling of the currents in the shadow areas of the platform. This improvement answers to the need to analyze precisely antenna-On-Launcher problems. Indeed IPO do not compute currents in shadow areas. Well, for this kind of problem, shadow areas represent almost all the platform. A new method based on IPO and called Domains Sequential Processing is proposed. This method is first validated using a canonical scenario involving a cylinder. Then it is successfully applied to the analysis of a spatial launcher
8

Perrot-Dockès, Marie. "Méthodes régularisées pour l’analyse de données multivariées en grande dimension : théorie et applications". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS304/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse nous nous intéressons au modèle linéaire général (modèle linéaire multivarié) en grande dimension. Nous proposons un nouvel estimateur parcimonieux des coefficients de ce modèle qui prend en compte la dépendance qui peut exister entre les différentes réponses. Cet estimateur est obtenu en estimant dans un premier temps la matrice de covariance des réponses puis en incluant cette matrice de covariance dans un critère Lasso. Les propriétés théoriques de cet estimateur sont étudiées lorsque le nombre de réponses peut tendre vers l’infini plus vite que la taille de l’échantillon. Plus précisément, nous proposons des conditions générales que doivent satisfaire les estimateurs de la matrice de covariance et de son inverse pour obtenir la consistance en signe des coefficients. Nous avons ensuite mis en place des méthodes, adaptées à la grande dimension, pour l’estimation de matrices de covariance qui sont supposées être des matrices de Toeplitz ou des matrices avec une structure par blocs, pas nécessairement diagonaux. Ces différentes méthodes ont enfin été appliquées à des problématiques de métabolomique, de protéomique et d’immunologie
In this PhD thesis we study general linear model (multivariate linearmodel) in high dimensional settings. We propose a novel variable selection approach in the framework of multivariate linear models taking into account the dependence that may exist between the responses. It consists in estimating beforehand the covariance matrix of the responses and to plug this estimator in a Lasso criterion, in order to obtain a sparse estimator of the coefficient matrix. The properties of our approach are investigated both from a theoretical and a numerical point of view. More precisely, we give general conditions that the estimators of the covariance matrix and its inverse have to satisfy in order to recover the positions of the zero and non-zero entries of the coefficient matrix when the number of responses is not fixed and can tend to infinity. We also propose novel, efficient and fully data-driven approaches for estimating Toeplitz and large block structured sparse covariance matrices in the case where the number of variables is much larger than the number of samples without limiting ourselves to block diagonal matrices. These approaches are appliedto different biological issues in metabolomics, in proteomics and in immunology
9

Abboud, Khodor. "Conception et évaluation d'un modèle adaptatif pour la qualité de service dans les réseaux MPLS". Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00590422.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail de thèse dans un premier temps est l'évaluation de performances des modèles de routage multi-chemins pour l'ingénierie de trafic et l'équilibrage de charge sur un réseau de type IP/MPLS (MPLS-TE). Nous comparons la capacité de ces modèles à équilibrer la charge du réseau tout en faisant de la différentiation de trafic. Nous les appliquons sur des grandes topologies générées par le générateur automatique des topologies BRITE, qui s'approchent en forme et en complexité du réseau réel. Nous mesurons ainsi l'impact de leur complexité respective et donc la capacité à les déployer sur des réseaux de grande taille (scalabilité). Dans un second temps, l'objectif est de proposer un concept de modélisation générale d'un réseau à commutations par paquets. Ce modèle est établi sur la base de la théorie différentielle de trafic et la théorie des files d'attente, tout en utilisant des approches graphiques. Le but est d'estimer l'état de charge du réseau et de ses composants (routeurs, liens, chemins). Ensuite, en fonction de ça, nous développons des approches de contrôle de congestion et commande sur l'entrée améliorant les techniques de routage adaptatif et l'équilibrage de charge dans les réseaux IP/MPLS
10

Silva, Camilo F. "Numerical study of combustion noise in gas turbines". Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20240/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche en bruit de combustion est de nos jours majoritairement consacrée au développement d'outils de calcul du bruit rayonné par les flammes. Les méthodes actuelles de CFD telles que la LES ou la DNS sont capables de fournir le champ acoustique rayonné par des sources de bruit, mais elles sont cependant limitées à des domaines de faible taille, ceci dû à leur fort coût de calcul. Pour surmonter cette limitation, on a vu l'émergence de méthodes hybrides. Dans cette approche, les sources de bruit sont découplées du son rayonné. Les sources sont alors calculées par les méthodes de DNS et de LES tandis que l'analogie acoustique permet de calculer le son rayonné par des codes acoustiques, moins coûteux en temps de calcul.L'objet de cette étude est de développer un outil numérique sur la base de l'analogie acoustique de Phillips pour de faibles nombres de Mach. Il permet de prendre en compte l'impact des conditions limites sur le champ acoustique résultant. La LES et le code de calcul acoustique développé ont été utilisés pour évaluer le bruit produit par une flamme turbulente confinée. Les deux techniques donnent des résultats en accord tant que les bonnes quantités sont comparées: il a été observé que le signal de pression obtenu directement à partir de la LES contient une quantité non négligeable d'hydrodynamique, laquelle doit être négligée si on cherche à comparer seulement les champs acoustiques issus des deux codes.L'hypothèse d'un nombre de Mach faible est totalement réaliste si l'on considère l'écoulement présent dans une chambre de combustion. Elle conduit à des simplifications significatives lorsque les analogies acoustiques sont considérées. Cependant, cette hypothèse ne peut pas être utilisée pour l'écoulement en amont (entrée d'air, compresseur) ni en aval (turbine, tuyère) des chambres de combustion aéronautiques. Un outil numérique a été développé pour pallier ce problème. Il est basé sur les équations d'Euler Quasi-1D, qui prennent en compte des écoulements convectifs, non isentropiques et non isenthalpiques. Cet outil permet d'estimer les conditions limites acoustiques qui doivent être imposées sur les entrées/sorties d'une chambre de combustion pour prendre en compte la présence d'un écoulement de nombre de Mach non négligeable, alors que les calculs acoustiques sont eux effectués sous cette hypothèse fortement restrictive
Today, much of the current effort in combustion noise is the development of efficient numerical tools to calculate the noise radiated by flames. Although unsteady CFD methods such as LES or DNS can directly provide the acoustic field radiated by noise sources, this evaluation is limited to small domains due to high computational costs. Hybrid methods have been developed to overcome this limitation. In these schemes, the noise sources are decoupled from the radiated sound. The sources are still calculated by DNS or LES codes whereas the radiated sound is evaluated by acoustic codes using an acoustic analogy.In the present study, a numerical tool based on the Phllips' analogy for low Mach numbers flows has been developed. This tool accounts for the role of the boundary conditions in the resulting acoustic field. Both LES and the acoustic code developed here are used to assess the noise produced by a turbulent confined flame of a turbulent swirled-stabilized staged combustor. Good agreements are obtained between both techniques as long as the good quantities are compared: the pressure signal obtained directly from LES contains a non negligible amount of hydrodynamics that must be removed when a suitable acoustics-acoustics comparison is sought. The low Mach number assumption is completely realistic when considering the flow within a combustion chamber; it also conducts to considerable simplifications when leading with acoustic analogies. However, it cannot be used for the upstream (air-intake, compressors) and downstream (turbines, nozzle) of an aeronautical combustion chamber. A numerical tool is developed based on the quasi-1D Linearized Euler Equations in order to account for convective, non-isentropic and non-isenthalpic flows. By means of this tool, it is possible to estimate the acoustic boundary conditions that should be imposed at the inlet/oultlet of a given combustion chamber when performing low-Mach number acoustic computations

Vai alla bibliografia