Thèses sur le sujet « Approches basées sur la structure »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Approches basées sur la structure.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Approches basées sur la structure ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Legendre, Audrey. « Prédiction de structures secondaires d’ARN et de complexes d’ARN avec pseudonoeuds - Approches basées sur la programmation mathématique multi-objectif ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLE031.

Texte intégral
Résumé :
Dans cette thèse, nous proposons de nouveaux algorithmes et outils pour la prédiction de structures secondaires d'ARN et de complexes d'ARN, incluant des motifs particuliers, difficiles à prédire, comme les pseudonœuds. La prédiction de structures d'ARN reste une tâche difficile, et les outils existants, pourtant nombreux, ne donnent pas toujours de bonnes prédictions.Afin de prédire plus précisément ces structures, nous proposons ici des algorithmes qui : i) prédisent les k-meilleures structures; ii) combinent plusieurs modèles de prédiction, afin de bénéficier des avantages de chacun; iii) sont capables de prendre en compte des contraintes utilisateurs et des données biologiques structurales telles que le SHAPE.Nous avons développé trois outils: BiokoP pour la prédiction de structures secondaires d'un ARN, et RCPred et C-RCPred pour la prédiction de structures secondaires de complexes d'ARN. L'outil BiokoP propose plusieurs structures optimales et sous-optimales grâce à la combinaison de deux modèles de prédiction, le modèle énergétique MFE et le modèle probabiliste MEA. Cette combinaison est réalisée grâce à la programmation mathématique multi-objectif, où chaque modèle est assimilé à une fonction objectif. À cet effet, nous avons développé un algorithme générique retournant les k-meilleures courbes de Pareto d'un programme linéaire en nombres entiers bi-objectif.L'outil RCPred, basé sur le modèle MFE, propose plusieurs structures sous-optimales. Il tire parti des nombreux outils existants pour la prédiction de structures secondaires d'ARN seuls et d'interactions ARN-ARN, en prenant en compte des structures secondaires et interactions déjà prédites en entrée. L'objectif de RCPred est de trouver les meilleures combinaisons possibles parmi ces entrées.L'outil C-RCPred est une nouvelle version de RCPred, prenant en compte des contraintes utilisateurs et des données biologiques structurales (SHAPE, PARS et DMS). C-RCPred est basé sur un algorithme multi-objectif, où les différents objectifs correspondent au modèle MFE, au respect des contraintes utilisateurs et à l'accord avec les données biologiques structurales
In this thesis, we propose new algorithms and tools to predict RNA and RNA complex secondary structures, including particular RNA motifs, difficult to predict, like pseudoknots. RNA structure prediction stays a difficult task, and the numerous existing tools don't always give good predictions.In order to predict structures that are as close as possible to the real ones, we propose to develop algorithms that: i) predict the k-best structures; ii) combine several models of prediction to take advantage of each; iii) are able to take into account user constraints and structural data like SHAPE.We developed three tools: BiokoP for predicting RNA secondary structures and RCPred and C-RCPred for predicting RNA complex secondary structures.The tool BiokoP proposes several optimal and sub-optimal structures thanks to the combination oftwo prediction models, the energy model MFE and the probabilistic model MEA. This combination isdone with multi-objective mathematical programming, where each model is associated to an objective function. To this end, we developed a generic algorithm returning the k-best Pareto curves of a bi-objective integer linear program.The tool RCPred, based on the MFE model, proposes several sub-optimal structures. It takes advantage of the numerous existing tools for RNA secondary structure prediction and for RNA-RNA interaction prediction, by taking as input predicted secondary structures and RNA-RNA interactions. The goal of RCPred is to find the best combination among these inputs.The tool C-RCPred is a new version of RCPred, taking into account user constraints and structural data(SHAPE, PARS, DMS). C-RCPred is based on a multi-objective algorithm, where the different objectives are the MFE model, the fulfillment of the user constraints and the concordance with the structural data
Styles APA, Harvard, Vancouver, ISO, etc.
2

Verdret, Yassine. « Analyse du comportement parasismique des murs à ossature bois : approches expérimentales et méthodes basées sur la performance sismique ». Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0010/document.

Texte intégral
Résumé :
Ce mémoire présente les travaux de thèse visant à étudier le comportement parasismique des éléments de murs à ossature en bois aux travers d’approches expérimentales et du développement d’une méthodologie d’application de méthodes basées sur la performance sismique. Les approches expérimentales sont constituées de trois campagnes d’essais : (1) une série d’essais monotones et cycliques à l’échelle d’assemblages agrafés et pointés, (2) une série d’essais monotones et cycliques à l’échelle de l’élément de mur à ossature en bois et (3) une série d’essais dynamiques sur table vibrante. La base de données constituée par les résultats d’essais permet alors l’examen des propriétés de résistance et de raideur des éléments de murs suivant les conditions de sollicitation (vitesse d’essai, chargement vertical). Le développement d’une modélisation à l’échelle macro du comportement cyclique et dynamique de tels éléments est également proposé à l’aide de modèles de loi de comportement hystérétiques. Une méthodologie d’application aux structures à ossature bois de méthodes basées sur la performance sismique (méthode N2 et MPA) ainsi qu’une analyse de vulnérabilité - construction de courbes de fragilité - à l’aide de la méthode N2 sont proposées
This thesis presents a study of the seismic behavior of light timber frame walls with stapled and nailed sheathings through experimental approaches and the development of a methodology for the application of seismic performance-based methods. The experimental approaches consist of three test campaigns: (1) a series of static tests on stapled and nailed connections, (2) a series of static tests performed on light timber frame walls and (3) a series of dynamic tests performed on light timber frame walls on a vibrating table. The database consists of these test results then allows the examination of strength and stiffness properties of the wall elements according to the stress conditions (strain rate, vertical load). The development of a macro-scale modeling of the cyclic and dynamic behavior of such elements is also proposed using constitutive law models. A framework of the application to light timber frame structures of seismic performance-based methods based (N2 method and MPA method) and a vulnerability analysis - fragility curves - using the N2 method are proposed
Styles APA, Harvard, Vancouver, ISO, etc.
3

Tataie, Laila. « Méthodes simplifiées basées sur une approche quasi-statique pour l’évaluation de la vulnérabilité des ouvrages soumis à des excitations sismiques ». Thesis, Lyon, INSA, 2011. http://www.theses.fr/2011ISAL0123/document.

Texte intégral
Résumé :
Dans le cadre de la protection du bâti face au risque sismique, les techniques d’analyse simplifiées, basées sur des calculs quasi-statiques en poussée progressive, se sont fortement développées au cours des deux dernières décennies. Le travail de thèse a pour objectif d’optimiser une stratégie d’analyse simplifiée proposée par Chopra et al. (2001) et adoptée par les normes américaines FEMA 273. Il s’agit d’une analyse modale non linéaire découplée, dénommée par les auteurs UMRHA qui se caractérisent principalement par : des calculs de type pushover selon les modes de vibration dominants de la structure, la création de modèles à un degré de liberté non linéaire à partir des courbes de pushover, puis le calcul de la réponse temporelle de la structure en recombinant les réponses temporelles associées à chaque mode de vibration. Dans ce travail, la méthode UMRHA a été améliorée en investiguant les points suivants. Tout d’abord, plusieurs modèles à un degré de liberté non linéaire déduits des courbes de pushover modal sont proposés afin d’enrichir la méthode UMRHA originelle qui emploie un simple modèle élasto-plastique : autres modèles élasto-plastiques avec des courbes enveloppes différentes, le modèle de Takeda prenant en compte un comportement hystérétique propre aux structures sous séismes, et enfin, un modèle simplifié basé sur la dégradation de fréquence en fonction d’un indicateur de dommage. Ce dernier modèle à un degré de liberté privilégie la vision de la chute de fréquence au cours du processus d’endommagement de la structure par rapport à une description réaliste des boucles d’hystérésis. La réponse totale de la structure est obtenue en sommant les contributions non linéaires des modes dominants aux contributions linéaires des modes non dominants. Enfin, la dégradation des déformées modales, due à l’endommagement subi par la structure au cours de la sollicitation sismique, est prise en compte dans la méthode M-UMRHA proposée dans ce travail, en généralisant le concept précédent de dégradation des fréquences modales en fonction d’un indicateur de dommage : la déformée modale devient elle-aussi dépendante d’un indicateur de dommage, le déplacement maximum en tête de l’ouvrage ; l’évolution de la déformée modale en fonction de cet indicateur est directement identifiée à partir des calculs de pushover modal. La pertinence de la nouvelle méthode M-UMRHA est investiguée pour plusieurs types de structures, en adoptant des modélisations éprouvées dans le cadre de la simulation des structures sous séismes : portique en béton armé modélisé par des éléments multifibres pour le béton et les armatures, remplissage en maçonnerie avec des éléments barres diagonales résistant uniquement en compression, bâti existant contreventé (Hôtel de Ville de Grenoble) avec des approches coques multicouches. Les résultats obtenus par la méthode simplifiée proposée sont comparés aux résultats de référence issus de l'analyse temporelle non linéaire dynamique
In the context of building’s protection against seismic risk, simplified analysis techniques, based on quasi-static analysis of pushover, have strongly developed over the past two decades. The thesis aims to optimize a simplified method proposed by Chopra and Goel in 2001 and adopted by American standards FEMA 273. This method is a nonlinear decoupled modal analysis, called by the authors UMRHA (Uncoupled Modal for Response History Analysis) which is mainly characterized by: pushover modal analysis according to the dominant modes of vibration of the structure, setting up nonlinear single degree of freedom systems drawn from modal pushover curves, then determining the history response of the structure by combining of the temporal responses associated with each mode of vibration. The decoupling of nonlinear history responses associated with each mode is the strong assumption of the method UMRHA. In this study, the UMRHA method has been improved by investigating the following points. First of all, several nonlinear single degree of freedom systems drawn from modal pushover curves are proposed to enrich the original UMRHA method, in which a simple elastic-plastic model is used, other elastic-plastic models with different envelope curves, Takeda model taking into account an hysteretic behavior characteristic of structures under earthquakes, and finally, a simplified model based on the frequency degradation as a function of a damage index. The latter nonlinear single degree of freedom model privileges the view of the frequency degradation during the structure damage process relative to a realistic description of hysteresis loops. The total response of the structure is obtained by summing the contributions of the non linear dominant modes to those of linear non dominant modes. Finally, the degradation of the modal shapes due to the structure damage during the seismic loading is taken into account in the new simplified method M-UMRHA (Modified UMRHA) proposed in this study. By generalizing the previous model of frequency degradation as a function of a damage index: the modal shape becomes itself also dependent on a damage index, the maximum displacement at the top of the structure; the evolution of the modal shape as a function of this index is directly obtained from the modal pushover analysis. The pertinence of the new method M-UMRHA is investigated for several types of structures, by adopting tested models of structures simulation under earthquakes: reinforced concrete frame modeled by multifibre elements with uniaxial laws under cyclic loading for concrete and steel, infill masonry wall with diagonal bars elements resistant only in compression, existing building (Grenoble City Hall) with multilayer shell elements and nonlinear biaxial laws based on the concept of smeared and fixed cracks. The obtained results by the proposed simplified method are compared to the reference results derived from the nonlinear response history analysis
Styles APA, Harvard, Vancouver, ISO, etc.
4

Dan, Pan. « Nouvelles approches en ingénierie vasculaire basées sur un scaffold fonctionnalisé, une matrice extracellulaire naturelle et une cellularisation intraluminale : de la caractérisation à la validation chez l’animal ». Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0304/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Panei, Francesco Paolo. « Advanced computational techniques to aid the rational design of small molecules targeting RNA ». Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS106.

Texte intégral
Résumé :
Les molécules d'ARN sont devenues des cibles thérapeutiques majeures, et le ciblage par petites molécules se révèle particulièrement prometteur. Cependant, malgré leur potentiel, le domaine est encore en développement, avec un nombre limité de médicaments spécifiquement conçus pour l'ARN. La flexibilité intrinsèque de l'ARN, bien qu'elle constitue un obstacle, introduit des opportunités thérapeutiques que les outils computationnels actuels ne parviennent pas pleinement à exploiter malgré leur prédisposition. Le projet de cette thèse est de construire un cadre computationnel plus complet pour la conception rationnelle de composés ciblant l'ARN. La première étape pour toute approche structure-based est l'analyse des connaissances structurales disponibles. Cependant, il manquait une base de données complète, organisée et régulièrement mise à jour pour la communauté scientifique. Pour combler cette lacune, j'ai créé HARIBOSS, une base de données de toutes les structures expérimentalement déterminées des complexes ARN-petites molécules extraites de la base de données PDB. Chaque entrée de HARIBOSS, accessible via une interface web dédiée (https://hariboss.pasteur.cloud), est annotée avec les propriétés physico-chimiques des ligands et des poches d'ARN. Cette base de données constamment mise à jour facilitera l'exploration des composés drug-like liées à l'ARN, l'analyse des propriétés des ligands et des poches, et en fin de compte, le développement de stratégies in silico pour identifier des petites molécules ciblant l'ARN. Lors de sa sortie, il a été possible de souligner que la majorité des poches de liaison à l'ARN ne conviennent pas aux interactions avec des molécules drug-like. Cela est dû à une hydrophobicité moindre et une exposition au solvant accrue par rapport aux sites de liaison des protéines. Cependant, cela résulte d'une représentation statique de l'ARN, qui peut ne pas capturer pleinement les mécanismes d'interaction avec de petites molécules. Il était nécessaire d'introduire des techniques computationnelles avancées pour une prise en compte efficace de la flexibilité de l'ARN. Dans cette direction, j'ai mis en œuvre SHAMAN, une technique computationnelle pour identifier les sites de liaison potentiels des petites molécules dans les ensembles structuraux d'ARN. SHAMAN permet d'explorer le paysage conformationnel de l'ARN cible par des simulations de dynamique moléculaire atomistique. Dans le même temps, il identifie efficacement les poches d'ARN en utilisant de petits fragments dont l'exploration de la surface de l'ARN est accélérée par des techniques d'enhanced sampling. Dans un ensemble de données comprenant divers riboswitches structurés ainsi que de petits ARN viraux flexibles, SHAMAN a précisément localisé des poches résolues expérimentalement, les classant les régions d’interaction préférées. Notamment, la précision de SHAMAN est supérieure à celle d'autres outils travaillant sur des structures statiques d'ARN dans un scénario réaliste de découverte de médicaments où seules les structures apo de la cible sont disponibles. Cela confirme que SHAMAN est une plateforme robuste pour les futures initiatives de conception de médicaments ciblant l'ARN avec de petites molécules, en particulier compte tenu de sa pertinence potentielle dans les campagnes de criblage virtuel. Dans l'ensemble, ma recherche contribue à améliorer notre compréhension et notre utilisation de l'ARN en tant que cible pour les médicaments à petites molécules, ouvrant la voie à des stratégies thérapeutiques plus efficaces dans ce domaine en évolution
RNA molecules have recently gained huge relevance as therapeutic targets. The direct targeting of RNA with small molecule drugs emerges for its wide applicability to different classes of RNAs. Despite this potential, the field is still in its infancy and the number of available RNA-targeted drugs remains limited. A major challenge is constituted by the highly flexible and elusive nature of the RNA targets. Nonetheless, RNA flexibility also presents unique opportunities that could be leveraged to enhance the efficacy and selectivity of newly designed therapeutic agents. To this end, computer-aided drug design techniques emerge as a natural and comprehensive approach. However, existing tools do not fully account for the flexibility of the RNA. The project of this PhD work aims to build a computational framework toward the rational design of compounds targeting RNA. The first essential step for any structure-based approach is the analysis of the available structural knowledge. However, a comprehensive, curated, and regularly updated repository for the scientific community was lacking. To fill this gap, I curated the creation of HARIBOSS ("Harnessing RIBOnucleic acid - Small molecule Structures"), a database of all the experimentally-determined structures of RNA-small molecule complexes retrieved from the PDB database. HARIBOSS is available via a dedicated web interface (https://hariboss.pasteur.cloud), and is regularly updated with all the structures resolved by X-ray, NMR, and cryo-EM, in which ligands with drug-like properties interact with RNA molecules. Each HARIBOSS entry is annotated with physico-chemical properties of ligands and RNA pockets. HARIBOSS repository, constantly updated, will facilitate the exploration of drug-like compounds known to bind RNA, the analysis of ligands and pockets properties and, ultimately, the development of in silico strategies to identify RNA-targeting small molecules. In coincidence of its release, it was possible to highlight that the majority of RNA binding pockets are unsuitable for interactions with drug-like molecules, attributed to the lower hydrophobicity and increased solvent exposure compared to protein binding sites. However, this emerges from a static depiction of RNA, which may not fully capture their interaction mechanisms with small molecules. In a broader perspective, it was necessary to introduce more advanced computational techniques for an effective accounting of RNA flexibility in the characterization of potential binding sites. In this direction, I implemented SHAMAN, a computational technique to identify potential small-molecule binding sites in RNA structural ensembles. SHAMAN enables the exploration of the target RNA conformational landscape through atomistic molecular dynamics. Simultaneously, it efficiently identifies RNA pockets using small probe compounds whose exploration of the RNA surface is accelerated by enhanced-sampling techniques. In a benchmark encompassing diverse large, structured riboswitches as well as small, flexible viral RNAs, SHAMAN accurately located experimentally resolved pockets, ranking them as preferred probe hotspots. Notably, SHAMAN accuracy was superior to other tools working on static RNA structures in the realistic drug discovery scenario where only apo structures of the target are available. This establishes SHAMAN as a robust platform for future drug design endeavors targeting RNA with small molecules, especially considering its potential applicability in virtual screening campaigns. Overall, my research contributed to enhance our understanding and utilization of RNA as a target for small molecule drugs, paving the way for more effective drug design strategies in this evolving field
Styles APA, Harvard, Vancouver, ISO, etc.
6

Belbachir, Faiza. « Approches basées sur les modèles de langue pour la recherche d'opinions ». Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2341/.

Texte intégral
Résumé :
Avec l'évolution du Web, de nombreuses formes de contenu ont été générées par les utilisateurs, y compris les pages personnelles, les discussions et les blogs. Ces derniers sont un moyen facile pour l'expression des avis personnels, le partage des sentiments, ou pour commenter différents sujets. La présence d'information de nature subjective (opinion) apparaît de manière très visible dans les blogs. Ces opinions ont une grande importance dans plusieurs domaines (politique, commercial, ou industriel) d'où la nécessité de les détecter automatiquement. Nos travaux de thèse s'inscrivent dans le contexte de la recherche d'information et s'intéressent plus précisément à l'information de type opinion. Le challenge majeur dans ce cadre est d'arriver à sélectionner des documents qui sont à la fois pertinents à un sujet donné et porteurs d'opinions sur ce sujet. Si la recherche d'information thématique, permet de répondre au critère de pertinence, une des problématiques majeure de cette tâche est de répondre au second critère. En effet outre la question relative à l'identification de documents porteurs d'opinions (nous parlons ainsi de documents subjectifs) ; il faudrait que l'opinion exprimée dans le document porte sur le sujet. Ceci n'est évidemment pas certain car un document peut traiter différents sujets. Parmi les différentes approches existantes dans la détection d'opinion, certaines se basent sur des lexiques de termes subjectifs et d'autres sur l'apprentissage automatique. Dans le cadre de cette thèse nous nous sommes intéressés aux deux types d'approches en palliant certaines de leurs limites. Notre contribution porte sur trois principaux volets. En premier lieu nous proposons une approche lexicale pour la détection d'opinion dans les blogs. Pour ce faire, nous exploitons différentes ressources subjectives, ouvertes, disponibles telles que IMDb, ROTTEN, CHESLY et MPQA qui constituent la source d'opinions. Nous supposons que si un document est similaire à cette source, il est vraisemblablement porteur d'opinions. Pour estimer cette vraisemblance, nous proposons de modéliser le document à tester et la source d'opinion par des modèles de langue et de mesurer la similarité des deux modèles. Plus cette similarité est grande et plus le document est vraisemblablement subjectif. Notre deuxième contribution porte sur la proposition d'une approche de détection d'opinion basée sur l'apprentissage automatique. Pour cela, nous proposons différentes caractéristiques pertinentes telles que l'Émotivité, la Subjectivité, L'Adressage, La Réflexivité permettant de répondre à la tâche en question. Notre troisième contribution concerne la polarité de l'opinion qui consiste à déterminer si un document subjectif a une opinion positive ou négative sur le sujet. De ce fait, nous proposons de prendre en compte un aspect du domaine, permettant de montrer que la polarité d'un terme peut dépendre du domaine dans lequel il est utilisé
Evolution of the World Wide Web has brought us various forms of data like factual data, product reviews, arguments, discussions, news data, temporal data, blog data etc. The blogs are considered to be the best way for the expression of the one's opinions about something including from a political subject to a product. These opinions become more important when they influence govt. Policies or companies marketing agendas and much more because of their huge presence on the web. Therefore, it becomes equally important to have such information systems that could process this kind of information on the web. In this thesis, we propose approach (es) that distinguish between factual and opinion documents with the purpose of further processing of opinionated information. Most of the current opinion finding approaches, some base themselves on lexicons of subjective terms while others exploit machine learning techniques. Within the framework of this thesis, we are interested in both types of approaches by mitigating some of their limits. Our contribution revolves around three main aspects of opinion mining. First of all we propose a lexical approach for opinion finding task. We exploit various subjective publicly available resources such as IMDB, ROTTEN, CHESLY and MPQA that are considered to be opinionated data collections. The idea is that if a document is similar to these, it is most likely that it is an opinionated document. We seek support of language modeling techniques for this purpose. We model the test document (i. E. The document whose subjectivity is to be evaluated) the source of opinion by language modeling technique and measure the similarity between both models. The higher the score of similarity is, the more the document subjective. Our second contribution of detection of opinion is based on the machine learning. For that purpose, we propose and evaluate various features such as the emotivity, the subjectivity, the addressing, the reflexivity and report results to compare them with current approaches. Our third contribution concerns the polarity of the opinion which determines if a subjective document has a positive or negative opinion on a given topic. We conclude that the polarity of a term can depend on the domain in which it is being used
Styles APA, Harvard, Vancouver, ISO, etc.
7

Don, Anthony. « Indexation et navigation dans les contenus visuels : approches basées sur les graphes ». Bordeaux 1, 2006. http://www.theses.fr/2006BOR13258.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le domaine de l'indexation et de la visualisation des documents vidéo et des collections d'images. Les méthodes proposées reposent sur l'utilisation de graphes pour représenter les relations de similarité entre les plans vidéo et images indexés. La première partie de cette thèse concerne l'indexation des documents vidéo en scènes. Les scènes sont des ensembles de plans vidéo partageant des caractéristiques similaires. Nous proposons d'abord une méthode interactive de détection de groupes de plans, partageant un contenu couleur similaire, basé sur la fragmentation de graphe. Nous abordons ensuite l'indexation des documents vidéo en scènes de dialogues, basée sur des caractéristiques sémantiques et structurelles présentes dans l'enchaînement des plans vidéo. La seconde partie de cette thèse traite de la visualisation et de la recherche dans des collections d'images indexées. Nous présentons un algorithme de plongement d'un espace métrique dans le plan appliqué à la visualisation de collections d'images indexées. Ce type de visualisation permet de représenter les relations de dissimilarité entre images et d'identifer visuellement des groupes d'images similaires. Nous proposons enfin une interface de recherches d'images basée sur le routage local dans un graphe. Les résultats d'une validation expérimentale ont présentés et discutés.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Hoarau, Christophe. « Nouvelles approches synthétiques de produits naturels basées sur la réactivité d'aminocarbanions stabilisés ». Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-354-355.pdf.

Texte intégral
Résumé :
Les techniques de synthese organique s'appuyant sur la creation de carbanions -amines representent des outils extremement prometteurs mais restent encore peu utilisees dans les plans d'elaboration d'alcaloides complexes. Le travail developpe s'inscrit dans cette perspective et propose la conception et la mise en uvre de strategies originales d'acces a une serie d'alcaloides et de produits naturels hautement condenses dont l'elaboration releve des defis synthetiques. Elles sont basees sur la creation et l'utilisation d'-aminocarbanions stabilises par divers groupements phosphoryles et integres dans deux grandes familles : les amides et amines. C'est ainsi qu'une strategie generale de synthese d'isoindolinones--phosphorylees mettant a profit la reactivite nucleophile de ces especes vis-a-vis d'entites aryniques et permettant de maitriser le nombre et la position des substituants sur tous les sites de la molecule a dans un premier temps ete envisagee. Une premiere application de ce concept a permis de proposer une strategie generale d'acces aux structures isoindolinoniques qui devrait pouvoir trouver immediatement une application en chimie therapeutique puisque ces structures sont utilisees comme tenseur dans la conception de nouveaux medicaments
De nouvelles approches conceptuelles de la charpente d'alcaloides de la famille des aristolactames, de l'eupolauramine, des tetrahydroisoindolobenzazepines et des 4,5-dioxoaporphines ont ensuite ete developpees. Elles reposent toutes sur l'exploitation des proprietes yluriques des anions derivant soit d'amines phosphoryles et ont en commun la formation concomitante d'une unite de type enamide ou enamide acyclique ou exocyclique, ces reactions s'inscrivant dans le cadre des reactions de horner. La mise en uvre de techniques d'annelation de differente nature, radicalaire, carbocationique ou enfin photochimique, ont permis de completer la construction des charpentes aromatiques polycycliques azotees
Styles APA, Harvard, Vancouver, ISO, etc.
9

Nguyen, Thi Minh Tam. « Approches basées sur DCA pour la programmation mathématique avec des contraintes d'équilibre ». Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0113/document.

Texte intégral
Résumé :
Dans cette thèse, nous étudions des approches basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) pour la programmation mathématique avec des contraintes d'équilibre, notée MPEC (Mathematical Programming with Equilibrum Constraints en anglais). Etant un sujet classique et difficile de la programmation mathématique et de la recherche opérationnelle, et de par ses diverses applications importantes, MPEC a attiré l'attention de nombreux chercheurs depuis plusieurs années. La thèse se compose de quatre chapitres principaux. Le chapitre 2 étudie une classe de programmes mathématiques avec des contraintes de complémentarité linéaire. En utilisant quatre fonctions de pénalité, nous reformulons le problème considéré comme des problèmes DC standard, i.e minimisation d'une fonction DC sous les contraintes convexes. Nous développons ensuite des algorithmes appropriés basés sur DCA pour résoudre les problèmes DC résultants. Deux d'entre eux sont reformulés encore sous la forme des problèmes DC généraux (i.e. minimisation d'une fonction DC sous des contraintes DC) pour que les sous-problèmes convexes dans DCA soient plus faciles à résoudre. Après la conception de DCA pour le problème considéré, nous développons ces schémas DCA pour deux cas particuliers: la programmation quadratique avec des contraintes de complémentarité linéaire, et le problème de complémentarité aux valeurs propres. Le chapitre 3 aborde une classe de programmes mathématiques avec des contraintes d'inégalité variationnelle. Nous utilisons une technique de pénalisation pour reformuler le problème considéré comme un programme DC. Une variante de DCA et sa version accélérée sont proposées pour résoudre ce programme DC. Comme application, nous résolvons le problème de détermination du prix de péages dans un réseau de transport avec des demandes fixes (" the second-best toll pricing problem with fixed demands" en anglais). Le chapitre 4 se concentre sur une classe de problèmes d'optimisation à deux niveaux avec des variables binaires dans le niveau supérieur. En utilisant une fonction de pénalité exacte, nous reformulons le problème considéré comme un programme DC standard pour lequel nous développons un algorithme efficace basé sur DCA. Nous appliquons l'algorithme proposé pour résoudre le problème d'interdiction de flot maximum dans un réseau ("maximum flow network interdiction problem" en anglais). Dans le chapitre 5, nous nous intéressons au problème de conception de réseau d'équilibre continu ("continuous equilibrium network design problem" en anglais). Il est modélisé sous forme d'un programme mathématique avec des contraintes de complémentarité, brièvement nommé MPCC (Mathematical Program with Complementarity Constraints en anglais). Nous reformulons ce problème MPCC comme un programme DC général et proposons un schéma DCA approprié pour le problème résultant
In this dissertation, we investigate approaches based on DC (Difference of Convex functions) programming and DCA (DC Algorithm) for mathematical programs with equilibrium constraints. Being a classical and challenging topic of nonconvex optimization, and because of its many important applications, mathematical programming with equilibrium constraints has attracted the attention of many researchers since many years. The dissertation consists of four main chapters. Chapter 2 studies a class of mathematical programs with linear complementarity constraints. By using four penalty functions, we reformulate the considered problem as standard DC programs, i.e. minimizing a DC function on a convex set. The appropriate DCA schemes are developed to solve these four DC programs. Two among them are reformulated again as general DC programs (i.e. minimizing a DC function under DC constraints) in order that the convex subproblems in DCA are easier to solve. After designing DCA for the considered problem, we show how to develop these DCA schemes for solving the quadratic problem with linear complementarity constraints and the asymmetric eigenvalue complementarity problem. Chapter 3 addresses a class of mathematical programs with variational inequality constraints. We use a penalty technique to recast the considered problem as a DC program. A variant of DCA and its accelerated version are proposed to solve this DC program. As an application, we tackle the second-best toll pricing problem with fixed demands. Chapter 4 focuses on a class of bilevel optimization problems with binary upper level variables. By using an exact penalty function, we express the bilevel problem as a standard DC program for which an efficient DCA scheme is developed. We apply the proposed algorithm to solve a maximum flow network interdiction problem. In chapter 5, we are interested in the continuous equilibrium network design problem. It was formulated as a Mathematical Program with Complementarity Constraints (MPCC). We reformulate this MPCC problem as a general DC program and then propose a suitable DCA scheme for the resulting problem
Styles APA, Harvard, Vancouver, ISO, etc.
10

Nguyen, Thi Minh Tam. « Approches basées sur DCA pour la programmation mathématique avec des contraintes d'équilibre ». Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0113.

Texte intégral
Résumé :
Dans cette thèse, nous étudions des approches basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) pour la programmation mathématique avec des contraintes d'équilibre, notée MPEC (Mathematical Programming with Equilibrum Constraints en anglais). Etant un sujet classique et difficile de la programmation mathématique et de la recherche opérationnelle, et de par ses diverses applications importantes, MPEC a attiré l'attention de nombreux chercheurs depuis plusieurs années. La thèse se compose de quatre chapitres principaux. Le chapitre 2 étudie une classe de programmes mathématiques avec des contraintes de complémentarité linéaire. En utilisant quatre fonctions de pénalité, nous reformulons le problème considéré comme des problèmes DC standard, i.e minimisation d'une fonction DC sous les contraintes convexes. Nous développons ensuite des algorithmes appropriés basés sur DCA pour résoudre les problèmes DC résultants. Deux d'entre eux sont reformulés encore sous la forme des problèmes DC généraux (i.e. minimisation d'une fonction DC sous des contraintes DC) pour que les sous-problèmes convexes dans DCA soient plus faciles à résoudre. Après la conception de DCA pour le problème considéré, nous développons ces schémas DCA pour deux cas particuliers: la programmation quadratique avec des contraintes de complémentarité linéaire, et le problème de complémentarité aux valeurs propres. Le chapitre 3 aborde une classe de programmes mathématiques avec des contraintes d'inégalité variationnelle. Nous utilisons une technique de pénalisation pour reformuler le problème considéré comme un programme DC. Une variante de DCA et sa version accélérée sont proposées pour résoudre ce programme DC. Comme application, nous résolvons le problème de détermination du prix de péages dans un réseau de transport avec des demandes fixes (" the second-best toll pricing problem with fixed demands" en anglais). Le chapitre 4 se concentre sur une classe de problèmes d'optimisation à deux niveaux avec des variables binaires dans le niveau supérieur. En utilisant une fonction de pénalité exacte, nous reformulons le problème considéré comme un programme DC standard pour lequel nous développons un algorithme efficace basé sur DCA. Nous appliquons l'algorithme proposé pour résoudre le problème d'interdiction de flot maximum dans un réseau ("maximum flow network interdiction problem" en anglais). Dans le chapitre 5, nous nous intéressons au problème de conception de réseau d'équilibre continu ("continuous equilibrium network design problem" en anglais). Il est modélisé sous forme d'un programme mathématique avec des contraintes de complémentarité, brièvement nommé MPCC (Mathematical Program with Complementarity Constraints en anglais). Nous reformulons ce problème MPCC comme un programme DC général et proposons un schéma DCA approprié pour le problème résultant
In this dissertation, we investigate approaches based on DC (Difference of Convex functions) programming and DCA (DC Algorithm) for mathematical programs with equilibrium constraints. Being a classical and challenging topic of nonconvex optimization, and because of its many important applications, mathematical programming with equilibrium constraints has attracted the attention of many researchers since many years. The dissertation consists of four main chapters. Chapter 2 studies a class of mathematical programs with linear complementarity constraints. By using four penalty functions, we reformulate the considered problem as standard DC programs, i.e. minimizing a DC function on a convex set. The appropriate DCA schemes are developed to solve these four DC programs. Two among them are reformulated again as general DC programs (i.e. minimizing a DC function under DC constraints) in order that the convex subproblems in DCA are easier to solve. After designing DCA for the considered problem, we show how to develop these DCA schemes for solving the quadratic problem with linear complementarity constraints and the asymmetric eigenvalue complementarity problem. Chapter 3 addresses a class of mathematical programs with variational inequality constraints. We use a penalty technique to recast the considered problem as a DC program. A variant of DCA and its accelerated version are proposed to solve this DC program. As an application, we tackle the second-best toll pricing problem with fixed demands. Chapter 4 focuses on a class of bilevel optimization problems with binary upper level variables. By using an exact penalty function, we express the bilevel problem as a standard DC program for which an efficient DCA scheme is developed. We apply the proposed algorithm to solve a maximum flow network interdiction problem. In chapter 5, we are interested in the continuous equilibrium network design problem. It was formulated as a Mathematical Program with Complementarity Constraints (MPCC). We reformulate this MPCC problem as a general DC program and then propose a suitable DCA scheme for the resulting problem
Styles APA, Harvard, Vancouver, ISO, etc.
11

Allouche, Benyamine. « Modélisation et commande des robots : nouvelles approches basées sur les modèles Takagi-Sugeno ». Thesis, Valenciennes, 2016. http://www.theses.fr/2016VALE0021/document.

Texte intégral
Résumé :
Chaque année, plus de 5 millions de personne à travers le monde deviennent hémiplégiques suite à un accident vasculaire cérébral. Ce soudain déficit neurologique conduit bien souvent à une perte partielle ou totale de la station debout et/ou à la perte de la capacité de déambulation. Dans l’optique de proposer de nouvelles solutions d’assistance situées entre le fauteuil roulant et le déambulateur, cette thèse s’inscrit dans le cadre du projet ANR TECSAN VHIPOD « véhicule individuel de transport en station debout auto-équilibrée pour personnes handicapées avec aide à la verticalisation ». Dans ce contexte, ces travaux de recherche apportent des éléments de réponse à deux problématiques fondamentales du projet : l’assistance au passage assis-debout (PAD) des personnes hémiplégiques et le déplacement à l’aide d’un véhicule auto-équilibré à deux roues. Ces problématiques sont abordées du point de vue de la robotique avec comme question centrale : peut-on utiliser l’approche Takagi-Sugeno (TS) pour la synthèse d’une commande ? Dans un premier temps, la problématique de mobilité des personnes handicapées a été traitée sur la base d’une solution de type gyropode. Des lois de commande basées sur les approches TS standard et descripteur ont été proposées afin d’étudier la stabilisation des gyropodes dans des situations particulières telles que le déplacement sur un terrain en pente ou le franchissement de petites marches. Les résultats obtenus ont non seulement permis d’aboutir à un concept potentiellement capable de franchir des obstacles, mais ils ont également permis de souligner la principale difficulté liée à l’applicabilité de l’approche TS en raison du conservatisme des conditions LMIs (inégalités matricielles linéaires). Dans un second temps, un banc d’assistance au PAD à architecture parallèle a été conçu. Ce type de manipulateur constitué de multiples boucles cinématiques présente un modèle dynamique très complexe (habituellement donné sous forme d’équations différentielles ordinaires). L’application de lois de commande basées sur l’approche TS est souvent vouée à l’échec compte tenu du grand nombre de non-linéarités dans le modèle. Afin de remédier à ce problème, une nouvelle approche de modélisation a été proposée. À partir d’un jeu de coordonnées bien particulier, le principe des puissances virtuelles est utilisé pour générer un modèle dynamique sous forme d’équations algébro-différentielles (DAEs). Cette approche permet d’aboutir à un modèle quasi-LPV où les seuls paramètres variants représentent les multiplicateurs de Lagrange issus de la modélisation DAE. Les résultats obtenus ont été validés en simulation sur un robot parallèle à 2 degrés de liberté (ddl) puis sur un robot parallèle à 3 ddl développé pour l’assistance au PAD
Every year more than 5 million people worldwide become hemiplegic as a direct consequence of stroke. This neurological deficiency, often leads to a partial or a total loss of standing up abilities and /or ambulation skills. In order to propose new supporting solutions lying between the wheelchair and the walker, this thesis comes within the ANR TECSAN project named VHIPOD “self-balanced transporter for disabled persons with sit-to-stand function”. In this context, this research provides some answers for two key issues of the project : the sit-to-stand assistance (STS) of hemiplegic people and their mobility through a two wheeled self-balanced solution. These issues are addressed from a robotic point of view while focusing on a key question : are we able to extend the use of Takagi-Sugeno approach (TS) to the control of complex systems ? Firstly, the issue of mobility of disabled persons was treated on the basis of a self-balanced solution. Control laws based on the standard and descriptor TS approaches have been proposed for the stabilization of gyropod in particular situations such as moving along a slope or crossing small steps. The results have led to the design a two-wheeled transporter which is potentially able to deal with the steps. On the other hand, these results have also highlighted the main challenge related to the use of TS approach such as the conservatisms of the LMIs constraints (Linear Matrix Inequalities). In a second time, a test bench for the STS assistance based on parallel kinematic manipulator (PKM) was designed. This kind of manipulator characterized by several closed kinematic chains often presents a complex dynamical model (given as a set of ordinary differential equations, ODEs). The application of control laws based on the TS approach is often doomed to failure given the large number of non-linear terms in the model. To overcome this problem, a new modeling approach was proposed. From a particular set of coordinates, the principle of virtual power was used to generate a dynamical model based on the differential algebraic equations (DAEs). This approach leads to a quasi-LPV model where the only varying parameters are the Lagrange multipliers derived from the constraint equations of the DAE model. The results were validated on simulation through a 2-DOF (degrees of freedom) parallel robot (Biglide) and a 3-DOF manipulator (Triglide) designed for the STS assistance
Styles APA, Harvard, Vancouver, ISO, etc.
12

Plot, Alexandre. « Approches numériques de conception CEM de cartes électroniques basées sur les techniques d'apprentissage ». Electronic Thesis or Diss., Rennes, INSA, 2024. http://www.theses.fr/2024ISAR0001.

Texte intégral
Résumé :
L’évolution constante des technologies des systèmes électroniques pose un défi du point de vue des performances de compatibilité électromagnétique (CEM). La nécessité de concevoir des équipements conformes aux normes CEM dès la première itération implique de prendre en compte la CEM dès les premières étapes de la conception. Ce mémoire s’intéresse à la conception CEM de cartes électroniques sous l’angle de la métamodélisation. L’utilisation d’une telle technique, permettant de se substituer à un modèle physique coûteux à calculer, présente un défi triple impliquant le choix d’une méthode appropriée, la détermination du nombre de données d’apprentissage, et les limites rencontrées dans le contexte de l’augmentation de la dimension (nombre de variables de conception). Cette thèse a permis de proposer une méthodologie complète répondant d’une part à la problématique de l’obtention d’un métamodèle fiable, et d’autre part au défi de l’analyse CEM de cartes électroniques. Un processus d’apprentissage systématique, reposant sur l’identification des variables prépondérantes et la mise en concurrence de plusieurs métamodèles dans un processus itératif d’apprentissage, est mis en place. Le métamodèle est ensuite utilisé comme modèle paramétrique du circuit imprimé, capable de calculer des grandeurs caractéristiques de performances CEM. La réalisation d’analyses de sensibilité et de criticité des paramètres de circuits imprimés, permet d’établir des règles de routage favorisant une conception CEM plus saine de la carte. Plusieurs situations physiques de conception sont étudiées afin de valider la méthode d’apprentissage et de confirmer la pertinence des règles de conception établies
The constant evolution of electronic systems technologies presents a challenge in terms of electromagnetic compatibility (EMC) performance. The need to design equipment compliant with EMC standards from the first iteration requires considering EMC in the early stages of design. This thesis focuses on EMC design of electronic boards from the perspective of surrogate modeling. The use of such a technique, substituting for a costly-tocalculate physical model, poses a triple challenge involving the choice of an appropriate method, determining the number of learning data, and addressing limits in the context of dimension increase (number of design variables). The thesis proposes a comprehensive methodology addressing the training of a reliable metamodel and the challenge of EMC analysis of electronic boards. A systematic learning process, based on identifying significant variables and competing multiple metamodels in an iterative learning process, is established. The metamodel is then used as a parametric model of the printed circuit board, able to compute characteristic EMC observables. Conducting sensitivity and criticality analyses of printed circuit parameters helps establishing routing rules favoring a healthier EMC design of the board. Several scenarios are studied to validate the learning method and confirm the relevance of the established design rules
Styles APA, Harvard, Vancouver, ISO, etc.
13

Dabladji, Rima. « Classification du cancer du sein par des approches basées sur les systèmes immunitaires artificiels ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE026/document.

Texte intégral
Résumé :
Le cancer du sein arrive dans le monde en première position en termes d’incidence et de mortalité parmi les différentes localisations cancéreuses chez les femmes. Malgré les avancées significatives faites ces dernières décennies en vue d’améliorer la gestion de ce type de cancer, des outils de diagnostic plus précis sont encore nécessaires pour aider les experts à lutter contre cette maladie mortelle. Dans ce cadre, des travaux de recherche considérables ont été réalisés dans l’espoir d’apporter de nouvelles perspectives pour l’amélioration du diagnostic du cancer du sein, en développant des systèmes de Décision Assistés par Ordinateur (DAO). Beaucoup de travaux se sont dirigés vers la détection de la présence de tissus cancéreux dans le sein et la classification de tumeurs en utilisant des outils issus de l’intelligence artificielle souvent inspirés par les systèmes naturels. En l’occurrence, les Systèmes Immunitaires Artificiels (SIA) constituent un domaine de recherche qui comble les domaines de l’immunologie, l’informatique et l’ingénierie. Les principaux développements au sein des systèmes immunitaires artificiels, ont mis l’accent sur trois principales théories immunologiques : la sélection clonale, les réseaux immunitaires et la sélection négative. Nous nous intéressons dans ce travail à l’utilisation de algorithmes de sélection clonale pour la classification des cellules mammaires en Bénignes/Malignes. En effet, ces approches sont généralement basées sur deux principaux processus : la reconnaissance de la forme de l’antigène et la sélection de la cellule mémoire spécifique à ce dernier. L’idée établie est que seules les cellules mémoires capables de reconnaître l’antigène sont sélectionnées pour le clonage et la mutation. Après avoir présenté le principe de ces algorithmes, nous étudierons, à travers plusieurs approches, leurs performances. Tout d’abord, on s’intéresse à l’amélioration de l’algorithme CLONALG, qui est un des algorithmes de base dans le domaine de la sélection clonale artificielle. Afin de renforcer l’apprentissage de ce dernier, avec une meilleure initialisation et une diversité maîtrisée, trois différentes méthodes sont proposées appelées Median Filter Clonal ALGorithm (MF-CLONALG), Average Cells Clonal ALGorithm (AC-CLONALG) et Validity Interval Clonal Selection (VI-CS). Cependant, bien qu’elles soient performantes, ces approches nécessitent un temps important de calcul. Dans ce contexte, la seconde approche qu’on propose vise à réduire les taux de calcul de ces algorithmes (et ceux des SIA en général) sans affecter leurs performances. L’algorithme Local Database Categorization Artificial Immune System (LDC-AIS) utilise le regroupement par K-means pour la catégorisation locale des données, et le réseau de neurones RBF pour l’apprentissage des catégories, afin d’accélérer le processus de sélection. La dernière partie de la thèse est dédiée à l’optimisation multimodale. En effet, après avoir présenté les algorithmes de sélection clonale comme outil compétitif de reconnaissance des formes et de classification, nous nous sommes intéressés à explorer ce concept, afin de démontrer les avantages des opérateurs de clonage et de mutations dans le cadre de l’optimisation de fonctions. En réponse à certains inconvénients du réseau de neurones MLP (Multi-Layer Perceptron), une procédure d’optimisation en plusieurs étapes est proposée, dans laquelle la rétropropagation est assistée par les processus de clonage et de mutation, pour une convergence plus rapide et précise du MLP. L’approche Multi-Layer Perceptron based Clonal Selection (MLP-CS) étant voisine des techniques évolutionnaires est comparée à un MLP optimisé par un algorithme génétique. Chacune des approches proposées dans ce travail est testée et comparée à différents travaux antérieurs en utilisant deux différentes bases de données mammaires à savoir la Wisconsin Diagnostic Breast Cancer (WDBC) et la Digital Database for Screening Mammography (DDSM)
Breast cancer arrives in the world in first place in terms of incidence and mortality among the different cancer localizations in women. Despite the significant progress made in recent decades to improve the management of this type of cancer, more accurate diagnostic tools are still necessary to help experts fight against this fatal disease. In this context, considerable research studies have been carried out to bring new perspectives for the improvement of the diagnosis of breast cancer, by developing Computer-Aided Diagnosis systems (CAD). Many works were directed to detecting the presence of cancerous tissues in the breast and tumor classification using tools from artificial intelligence often inspired by natural systems. In this case, Artificial Immune Systems (AIS) are a research field that bridges the fields of immunology, computer science and engineering. The main developments in artificial immune systems, have focused on three main immunological theories: clonal selection, immune networks and negative selection. We focus in this work on the use of clonal selection algorithms for classification of breast cells in Benign / Malignant. Indeed, these approaches are generally based on two main processes: the shape recognition of the antigen and selection of the specific memory cell to it. The established idea is that only memory cells capable of recognizing the antigen are selected for cloning and mutation. After introducing the principle of these algorithms we will study, through various approaches, their performances. First, we focus on improving CLONALG algorithm, which is a basic algorithm in the field of artificial clonal selection. To enhance the learning of the latter, with a better initialization and controlled diversity, three different methods are proposed appointed Median Filter Clonal ALGorithm (MF-CLONALG), Average Cells Clonal ALGorithm (AC-CLONALG) and Validity Interval Clonal Selection (VI-CS). However, although successful, these approaches require significant computing time. In this context, the second proposed approach aims at reducing the computational rates of these algorithms (and those of the AIS in general) without affecting their performance. The Local Database Categorization Artificial Immune System algorithm (LDC-AIS) uses clustering by K-means for local data categorization, and RBF neural network for learning categories, to accelerate the selection process. The last part of the thesis is dedicated to multimodal optimization. Indeed, after having presented the clonal selection algorithms as competitive tools of pattern recognition and classification, we were interested in exploring this concept, to demonstrate the benefits of cloning and mutation operators in functions optimization’s framework. In response to some drawbacks of the MLP neural network (Multi-Layer Perceptron), an optimization procedure in several stages is proposed, in which the back-propagation is assisted by cloning and mutation processes, for fast and accurate convergence of MLP. Being close to evolutionary techniques, the Multi-Layer Perceptron based Clonal Selection approach (MLP-CS) is compared to an MLP optimized by a genetic algorithm. Each of the approaches proposed in this work is tested and compared to different previous works using two different breast databases which are the Wisconsin Diagnostic Breast Cancer (WDBC), and the Digital Database for Screening Mammography (DDSM)
Styles APA, Harvard, Vancouver, ISO, etc.
14

Bureau, Louis 1961. « Ordinateur et applications créatives en musique : étude de deux approches basées sur le logiciel Tuneblocks ». Thesis, McGill University, 1995. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=22568.

Texte intégral
Résumé :
The purpose of this study was to explore the compositional processes of nine-year-old children using a microprocessor computer. Ten children were divided in two groups and were asked to compose a melody by arranging musical blocks. Children in the first group were given pre-composed blocks of Mozart's piano sonatas. Children in the second group were asked to compose their own blocks. Bamberger's computer program, Tuneblocks, was adapted for a use on a Macintosh microcomputer with French-speaking children.
Results revealed that type of task does not affect the process-product orientation adopted by children. Pedagogical implications explore the findings in terms of practical applications of both approaches.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Robaczewska, Magdalena. « Développement de nouvelles approches antivirales des hépatites B chroniques basées sur l'utilisation des oligonucléotides antisens ». Lyon 1, 2002. http://www.theses.fr/2002LYO10031.

Texte intégral
Résumé :
L'infection chronique par le Virus de l'Hépatite B (VHB) demeure une cause majeure de la cirrhose et du carcinome hépatocellulaire. Compte tenu d'efficacité insuffisante des thérapies actuelles il est important de développer de nouvelles stratégies antivirales. Dans ce contexte, nos travaux ont porté sur le développement et la détermination de l'effet anti-VHB d'une approche de thérapie génique basée sur l'emploi d'oligonucléotides (ODN) antisens. Ces ODN sont capables de s'hybrider de façon spécifique à une séquence d'ARN viral et inhiber ainsi la réplication virale. L'objectif de ce travail était d'utiliser le modèle du VHB du canard (DHBV), étroitement apparenté au VHB humain, afin d'évaluer l'efficacité ́de deux approches antisens différentes pour l'inhibition de la réplication virale. Dans un premier temps, nous avons utilisé les ODN non-modifiés, phosphodiesters (O-ODN), vectorisés et protégés contre la dégradation par un polymère cationique, la polyéthylèneimine (PEI). Ces O-ODN étaient dirigés contre le codon d'initiation de la grande protéine d'enveloppe du DHBV. Les résultats de notre étude in vivo montrent que les complexes O-ODN/PEI injectés par la voie intaveineuse sont délivrés dans le foie des animaux infectés où ils inhibent spécifiquement, et de façon significative, la réplication du DHBV. Dans un deuxième temps, nous avons testé l'efficacité antivirale d'une nouvelle classe de molécules antisens possédant un squelette pseudopeptidique, les PNA (pour Peptide Nucleic Acid), qui sont résistants à la dégradation par les nucléases et s'hybrident avec une très grande affinité et spécificité à l'ARN. Nos résultats démontrent que les PNA dirigés contre le site d'initiation de la transcription inverse (RT) inhibent fortement et de façon extrêmement spécifique, la RT du DHBV dans le système acellulaire. De plus, les PNA induisent une baisse du taux d'ADN viral dans les cultures primaires d'hépatocytes de canard infectés par le DHBV. Enfin, l'activité antivirale de PNA dans ce système cellulaire est améliorée par leur couplage aux peptides perméabilisants. L'ensemble de ces résultats montre qu'il est possible d'induire une forte et spécifique inhibition de la réplication virale par les ODN antisens, ce qui pourrait contribuer au développement de nouveaux outils thérapeutiques contre le VHB chez l'homme. De plus, ce travail ouvre de nouvelles voies pour l'application de l'approche O-ODN/PEI ou PNA pour bloquer spécifiquement d'autres gènes viraux ou cellulaires dans le foie.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Khelif, Racha. « Estimation du RUL par des approches basées sur l'expérience : de la donnée vers la connaissance ». Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2019/document.

Texte intégral
Résumé :
Nos travaux de thèses s’intéressent au pronostic de défaillance de composant critique et à l’estimation de la durée de vie résiduelle avant défaillance (RUL). Nous avons développé des méthodes basées sur l’expérience. Cette orientation nous permet de nous affranchir de la définition d’un seuil de défaillance, point problématique lors de l’estimation du RUL. Nous avons pris appui sur le paradigme de Raisonnement à Partir de Cas (R à PC) pour assurer le suivi d’un nouveau composant critique et prédire son RUL. Une approche basée sur les instances (IBL) a été développée en proposant plusieurs formalisations de l’expérience : une supervisée tenant compte de l’ état du composant sous forme d’indicateur de santé et une non-supervisée agrégeant les données capteurs en une série temporelle mono-dimensionnelle formant une trajectoire de dégradation. Nous avons ensuite fait évoluer cette approche en intégrant de la connaissance à ces instances. La connaissance est extraite à partir de données capteurs et est de deux types : temporelle qui complète la modélisation des instances et fréquentielle qui, associée à la mesure de similarité permet d’affiner la phase de remémoration. Cette dernière prend appui sur deux types de mesures : une pondérée entre fenêtres parallèles et fixes et une pondérée avec projection temporelle. Les fenêtres sont glissantes ce qui permet d’identifier et de localiser l’état actuel de la dégradation de nouveaux composants. Une autre approche orientée donnée a été test ée. Celle-ci est se base sur des caractéristiques extraites des expériences, qui sont mono-dimensionnelles dans le premier cas et multi-dimensionnelles autrement. Ces caractéristiques seront modélisées par un algorithme de régression à vecteurs de support (SVR). Ces approches ont été évaluées sur deux types de composants : les turboréacteurs et les batteries «Li-ion». Les résultats obtenus sont intéressants mais dépendent du type de données traitées
Our thesis work is concerned with the development of experience based approachesfor criticalcomponent prognostics and Remaining Useful Life (RUL) estimation. This choice allows us to avoidthe problematic issue of setting a failure threshold.Our work was based on Case Based Reasoning (CBR) to track the health status of a new componentand predict its RUL. An Instance Based Learning (IBL) approach was first developed offering twoexperience formalizations. The first is a supervised method that takes into account the status of thecomponent and produces health indicators. The second is an unsupervised method that fuses thesensory data into degradation trajectories.The approach was then evolved by integrating knowledge. Knowledge is extracted from the sensorydata and is of two types: temporal that completes the modeling of instances and frequential that,along with the similarity measure refine the retrieval phase. The latter is based on two similaritymeasures: a weighted one between fixed parallel windows and a weighted similarity with temporalprojection through sliding windows which allow actual health status identification.Another data-driven technique was tested. This one is developed from features extracted from theexperiences that can be either mono or multi-dimensional. These features are modeled by a SupportVector Regression (SVR) algorithm. The developed approaches were assessed on two types ofcritical components: turbofans and ”Li-ion” batteries. The obtained results are interesting but theydepend on the type of the treated data
Styles APA, Harvard, Vancouver, ISO, etc.
17

Benyoucef, Rayane. « Contribution à la cinématique à partir du mouvement : approches basées sur des observateurs non linéaires ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG091.

Texte intégral
Résumé :
Ce manuscrit présente les différentes contributions scientifiques au cours de cette thèse, dans le but de résoudre le problème de la reconstruction 3D structure from motion (SfM) à travers la synthèse de modèles dynamiques et d'algorithmes d'observation pour la reconstruction de variables non mesurées. Il ne fait aucun doute que les capteursde vision sont la source la plus importante fournissant des informations riches surl'environnement et c'est là que l'estimation de la structure de la scène commence à trouver des usages professionnels. Il y a eu un intérêt significatif pour récupérerla structure 3D d'une scène à partir de pixels en 2D en considérant une séquence d'images. Plusieurs solutions à ce problème ont été proposées dans la littérature. L'objectif du problème classique de la « structure from mouvement (SfM) » est d'estimer les coordonnées euclidiennes des points caractéristiques suivis, attachés à un objet (c'est-à-dire la structure 3D) à condition que le mouvement relatif entre la caméra et l'objet soit connu. Il est largement traité dans la littérature que le mouvement translationnel de la caméra a un effet important sur la performance de l'estimation de la structure 3D. Pour les caméras embarquées (eye-in-hand) portées par un robot manipulateurs fixés au sol, il est simple de mesurer la vitesse linéaire. Cependant, en ce qui concerne les caméras montées sur des robots mobiles, certains problèmes pratiques peuvent survenir. Par conséquent, un autre objectif de cette thèse est de trouver des stratégies pour développer des observateurs non linéaires déterministes pour résoudre le problème de SfM et obtenir une estimation fiable des vitesses linéaires variables dans le temps, utilisées comme entrées du schéma d'estimation, ce qui est une exigence implicite pour la plupart des visions actives. Les techniques utilisées sont basées sur les modèles de Takagi-Sugeno et de la théorie de Lyapunov. Dans la première partie, une solution pour le problème SfM est présentée, où le but principal est d'identifier la structure 3D d'un point caractéristique observé par une caméra calibrée en supposant une connaissance précise des vitesses linéaires et angulaires de la caméra. Ensuite, ce travail est étendu à l'étude de la reconstruction 3D d'un point en considérant une caméra partiellement calibrée. Dans la deuxième partie, la thèse se focalise sur l'identification de la structure 3D d'un point caractéristique suivi et de la vitesse linéaire de la caméra. Dans un premier temps, la stratégie présentée vise à récupérer les informations 3D et l'estimation de la vitesse linéaire partielle de la caméra. Ensuite, la thèse introduit l'estimation de la structure et l'estimation complète de la vitesse linéaire de la caméra, où l'observateur proposé n'a besoin que de la vitesse angulaire de la caméra et des accélérations linéaires et angulaires correspondantes. Les performances de chaque observateur sont mises en évidence à l'aide d'une série de simulations avec plusieurs scénarios
This manuscript outlines the various scientific contributions during this thesis, with the objective of solving the problem of the 3D reconstructure Structure from Motion (SfM) through the synthesis of dynamic models and observation algorithms for thereconstruction of unmeasured variables. Undoubtedly, vision sensors are the most important source providing rich information about the environment and that's where the scene structure estimation begins to find professional uses. There has been significant interest in recovering the 3D structure of a scene from 2D pixels considering a sequence of images. Several solutions have been proposed in the literature for this issue. The objective of the classic “structure from motion (SfM)” problem is to estimate the Euclidean coordinates of tracked feature points attached to an object (i.e., 3-D structure) provided the relative motion between the camera and the object is known. It isthoroughly addressed in literature that the camera translational motion has a strong effect on the performance of 3D structure estimation. For eye-in-hand cameras carried by robot manipulators fixed to the ground, it is straightforward to measure linear velocity. However when dealing with cameras riding on mobile robots, some practical issues may occur. In this context, particular attention has been devoted to estimating the camera linear velocities. Hence another objective of this thesis is to find strategies to develop deterministic nonlinear observers to address the SfM problem and obtain a reliable estimation of the unknown time-varying linear velocities used as input of the estimator scheme which is an implicit requirement for most of active vision. The techniques used are based on Takagi-Sugeno models and Lyapunov-based analysis. In the first part, a solution for the SfM problem is presented, where the main purpose is to identify the 3D structure of a tracked feature point observed by a moving calibrated camera assuming a precise knowledge of the camera linear and angular velocities. Then this work is extended to investigate the depth reconstruction considering a partially calibratedcamera. In the second part, the thesis focuses on identifying the 3D structure of a tracked feature point and the camera linear velocity. At first, the strategy presented aims to recover the 3D information and partial estimate of the camera linear velocity. Then, the thesis introduces the structure estimation and full estimation of the camera linear velocity, where the proposed observer only requires the camera angular velocity and the corresponding linear and angular accelerations. The performance of eachobserver is highlighted using a series of simulations with several scenarios and experimental tests
Styles APA, Harvard, Vancouver, ISO, etc.
18

Bengharbi, Amar. « Contribution au test et diagnostic des circuits analogiques par des approches basées sur des techniques neuronales ». Paris 12, 1997. http://www.theses.fr/1997PA120083.

Texte intégral
Résumé :
Le probleme du test et diagnostic a toujours ete un theme de recherche et de developpement important dans le domaine de l'electronique. En effet, le test a une place essentielle dans la fabrication et la maintenance des circuits electroniques. Alors que le test des circuits numeriques a fait l'objet de nombreuses etudes, qui ont permis la mise au point de differentes methodes, le test des circuits analogiques et mixtes (analogique/digitale) n'a pas connu ce meme essor. A l'heure actuelle, on recense quelques travaux sur le probleme du test des circuits analogiques. Cependant, la majorite des methodes proposees presentent des limitations et des difficultes de mise en oeuvre liees au probleme de la tolerance, la modelisation et la non-linearite des composants. Ce travail presente, d'une part, une application des methodes d'identification au test et diagnostic des circuits electroniques analogiques et d'autre part, une etude d'approches neuronales pour le test et diagnostic de ces derniers. Dans un premier temps, une etude theorique des methodes d'identification classique est exposee. Nous avons examine les differents choix pour adapter ces methodes au probleme du test et diagnostic des circuits analogiques. A travers des exemples de simulation sur des circuits lineaires, nous avons valide ces approches. Compte tenu des limitations constatees sur ces methodes, nous avons propose d'etudier des approches basees sur les reseaux de neurones afin de contourner ces limitations. Une breve etude theorique des reseaux de neurones et de certains modeles neuronaux a ete exposee. A la suite de cette etude, nous avons propose plusieurs approches utilisant ces techniques (reseaux de neurones : backpropagation, lvq, rbf, systemes multi-reseaux) pour l'identification et la classification en vue du test et diagnostic des circuits analogiques. Ces approches ont ete validees par simulation et experimentation pour des simple et double-defauts. Les avantages des approches neuronales proposees dans ce travail sont : la dispense de la modelisation mathematique du circuit, la diminution du nombre de points de test, la possibilite d'application de telles techniques a la fois a des circuits lineaires et non-lineaires.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Bousquet, Cédric. « Raisonnement terminologique et fouille de données en pharmacovigilance : de nouvelles approches basées sur la terminologie MedDRA ». Paris 6, 2004. http://www.theses.fr/2004PA066024.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Beatrix, Christopher. « Justifications dans les approches ASP basées sur les règles : application au backjumping dans le solveur ASPeRiX ». Thesis, Angers, 2016. http://www.theses.fr/2016ANGE0026/document.

Texte intégral
Résumé :
L’ Answer Set Programming (ASP) est un formalisme capable de représenter des connaissances en Intelligence Artificielle à l’aide d’un programme logique au premier ordre pouvant contenir des négations par défaut. En quelques années, plusieurs solveurs performants ont été proposés pour calculer les solutions d’un programme ASP que l’on nomme answer sets.Nous nous intéressons ici plus particulièrement au solveur ASPeRiX qui instancie les règles au premier ordre à la volée durant le calcul des answer sets. Pour réaliser cela, ASPeRiX applique un chaînage avant sur les règles à partir de littéraux précédemment déterminés.L’étude de ce solveur nous amène notamment à considérer la notion de justification dans le cadre d’une approche de calcul d’ answer sets basée sur les règles. Les justifications permettent d’expliquer pourquoi certaines propriétés sont vérifiées. Parmi celles-ci, nous nous concentrons particulièrement sur les raisons d’échecs qui justifient pourquoi certaines branches de l’arbre de recherche n’aboutissent pas à un answer set.Cela nous conduit à implémenter une version d’ ASPeRiX proposant du backjumping qui évite de parcourir systématiquement toutes les branches de l’arbre de recherche grâce aux informations fournies par les raisons d’échecs
Answer set programming (ASP) is a formalism able to represent knowledge in Artificial Intelligence thanks to a first order logic program which can contain default negations. In recent years, several efficient solvers have been proposed to compute the solutions of an ASP program called answer sets. We are particularly interested in the ASPeRiX solver that instantiates the first order rules on the fly during the computation of answer sets. It applies a forward chaining of rules from literals previously determined. The study of this solver leads us to consider the concept of justification as part of a rule-based approach for computing answer sets. Justifications enable to explain why some properties are true or false. Among them, we focus particularly on the failure reasons which justify why some branches of the search tree does not result in an answer set. This encourages us to implement a version of ASPeRiX with backjumping in order to jump to the last choice point related to the failure in the search tree thanks to information provided by the failure reasons
Styles APA, Harvard, Vancouver, ISO, etc.
21

Boumaiza, Ameni. « Reconnaissance et localisation de symboles dans les documents graphiques : approches basées sur le treillis de concepts ». Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0028/document.

Texte intégral
Résumé :
Omniprésents, la relation homme-machine est encore une définition ardue à cerner. Les ordinateurs réalisent dans le temps des tâches récurrentes. Ils aident ainsi l'homme à manipuler d'énormes quantités de données, souvent même plus rapidement et plus précisément que lui. Malgré cela, la capacité des ordinateurs demeure limitée lorsqu'il s'agit d'extraire automatiquement des informations d'images ou de vidéos, qui représentent pourtant des volumes de données extrêmement importants. La vision par ordinateur est un domaine qui inclut des méthodes d'acquisition, de traitement, d'analyse et de compréhension des images afin de produire de l'information numérique ou symbolique. Un axe de recherche contribuant au développement de ce domaine consiste à reproduire les capacités de la vision humaine par voie électronique afin de percevoir et de comprendre une image. Il s'agit de développer des algorithmes qui reproduisent une des capacités les plus étonnantes du cerveau humain à savoir la déduction des propriétés du monde purement externe au moyen de la lumière qui nous revient des divers objets qui nous entourent. Nos travaux de thèse s'inscrivent dans cet axe de recherche. Nous proposons plusieurs contributions originales s'inscrivant dans le cadre de résolution des problèmes de la reconnaissance et de la localisation des symboles graphiques en contexte. L'originalité des approches proposées réside dans la proposition d'une alliance intéressante entre l'Analyse Formelle de Concepts et la vision par ordinateur. Pour ce faire, nous nous sommes confrontés à l'étude du domaine de l'AFC et plus précisément l'adaptation de la structure du treillis de concepts et son utilisation comme étant l'outil majeur de nos travaux. La principale particularité de notre travail réside dans son aspect générique vu que les méthodes proposées peuvent être alliées à divers outils autre que le treillis de concepts en gardant les mêmes stratégies adoptées et en suivant une procédure semblable. Notre incursion dans le domaine de l'Analyse Formelle de Concepts et plus précisément notre choix de la structure du treillis de Galois appelé aussi treillis de concepts est motivé par les nombreux avantages présentés par cet outil. Le principal avantage du treillis de concepts est l'aspect symbolique qu'il offre. Il présente un espace de recherche concis, précis et souple facilitant ainsi la prise de décision. Nos contributions sont inscrites dans le cadre de la reconnaissance et de localisation de symboles dans les documents graphiques. Nous proposons des chaînes de traitement s'inscrivant dans le domaine de la vision par ordinateur
Computer vision is a field that includes methods for the acquisition, processing, analysis and understanding of images to produce numerical or symbolic information. A research contributing to the development of this area is to replicate the capabilities of human vision to perceive and understand images. Our thesis is part of this research axis. We propose several original contributions belonging to the context of graphics recognition and spotting context. The originality of the proposed approaches is the proposal of an interesting alliance between the Formal Concept Analysis and the Computer Vision fields. We face the study of the FCA field and more precisely the adaptation of the structure of concept lattice and its use as the main tool of our work. The main feature of our work lies in its generic aspect because the proposed methods can be combined with various other tools keeping the same strategies and following a similar procedure. Our foray into the area of the Formal Concept Analysis and more precisely our choice of the structure of the Galois lattice, also called concept lattice is motivated by the many advantages offered by this tool. The main advantage of concept lattice is the symbolic aspect. It is a concise, accurate and flexible search space thus facilitating decision making. Our contributions are recorded as part of the recognition and localization of symbols in graphic documents. We propose to recognize and spot symbols in graphical documents (technical drawings for example) using the alliance between the bag of words representation and the Galois lattice formalism. We opt for various methods belonging to the computer vision field
Styles APA, Harvard, Vancouver, ISO, etc.
22

Boumaiza, Ameni. « Reconnaissance et localisation de symboles dans les documents graphiques : approches basées sur le treillis de concepts ». Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0028.

Texte intégral
Résumé :
Omniprésents, la relation homme-machine est encore une définition ardue à cerner. Les ordinateurs réalisent dans le temps des tâches récurrentes. Ils aident ainsi l'homme à manipuler d'énormes quantités de données, souvent même plus rapidement et plus précisément que lui. Malgré cela, la capacité des ordinateurs demeure limitée lorsqu'il s'agit d'extraire automatiquement des informations d'images ou de vidéos, qui représentent pourtant des volumes de données extrêmement importants. La vision par ordinateur est un domaine qui inclut des méthodes d'acquisition, de traitement, d'analyse et de compréhension des images afin de produire de l'information numérique ou symbolique. Un axe de recherche contribuant au développement de ce domaine consiste à reproduire les capacités de la vision humaine par voie électronique afin de percevoir et de comprendre une image. Il s'agit de développer des algorithmes qui reproduisent une des capacités les plus étonnantes du cerveau humain à savoir la déduction des propriétés du monde purement externe au moyen de la lumière qui nous revient des divers objets qui nous entourent. Nos travaux de thèse s'inscrivent dans cet axe de recherche. Nous proposons plusieurs contributions originales s'inscrivant dans le cadre de résolution des problèmes de la reconnaissance et de la localisation des symboles graphiques en contexte. L'originalité des approches proposées réside dans la proposition d'une alliance intéressante entre l'Analyse Formelle de Concepts et la vision par ordinateur. Pour ce faire, nous nous sommes confrontés à l'étude du domaine de l'AFC et plus précisément l'adaptation de la structure du treillis de concepts et son utilisation comme étant l'outil majeur de nos travaux. La principale particularité de notre travail réside dans son aspect générique vu que les méthodes proposées peuvent être alliées à divers outils autre que le treillis de concepts en gardant les mêmes stratégies adoptées et en suivant une procédure semblable. Notre incursion dans le domaine de l'Analyse Formelle de Concepts et plus précisément notre choix de la structure du treillis de Galois appelé aussi treillis de concepts est motivé par les nombreux avantages présentés par cet outil. Le principal avantage du treillis de concepts est l'aspect symbolique qu'il offre. Il présente un espace de recherche concis, précis et souple facilitant ainsi la prise de décision. Nos contributions sont inscrites dans le cadre de la reconnaissance et de localisation de symboles dans les documents graphiques. Nous proposons des chaînes de traitement s'inscrivant dans le domaine de la vision par ordinateur
Computer vision is a field that includes methods for the acquisition, processing, analysis and understanding of images to produce numerical or symbolic information. A research contributing to the development of this area is to replicate the capabilities of human vision to perceive and understand images. Our thesis is part of this research axis. We propose several original contributions belonging to the context of graphics recognition and spotting context. The originality of the proposed approaches is the proposal of an interesting alliance between the Formal Concept Analysis and the Computer Vision fields. We face the study of the FCA field and more precisely the adaptation of the structure of concept lattice and its use as the main tool of our work. The main feature of our work lies in its generic aspect because the proposed methods can be combined with various other tools keeping the same strategies and following a similar procedure. Our foray into the area of the Formal Concept Analysis and more precisely our choice of the structure of the Galois lattice, also called concept lattice is motivated by the many advantages offered by this tool. The main advantage of concept lattice is the symbolic aspect. It is a concise, accurate and flexible search space thus facilitating decision making. Our contributions are recorded as part of the recognition and localization of symbols in graphic documents. We propose to recognize and spot symbols in graphical documents (technical drawings for example) using the alliance between the bag of words representation and the Galois lattice formalism. We opt for various methods belonging to the computer vision field
Styles APA, Harvard, Vancouver, ISO, etc.
23

Torregrosa, jordan Sergio. « Approches Hybrides et Méthodes d'Intelligence Artificielle Basées sur la Simulation Numérique pour l'Optimisation des Systèmes Aérodynamiques Complexes ». Electronic Thesis or Diss., Paris, HESAM, 2024. http://www.theses.fr/2024HESAE002.

Texte intégral
Résumé :
La conception industrielle d'un composant est un processus complexe, long et coûteux, contraint par des spécifications physiques, stylistiques et de développement précises en fonction de ses conditions et de son environnement d'utilisation futurs. En effet, un composant industriel est défini et caractérisé par de nombreux paramètres qui doivent être optimisés pour satisfaire au mieux toutes ces spécifications. Cependant, la complexité de ce problème d'optimisation multiparamétrique sous contraintes est telle que sa résolution analytique est compromise.Dans le passé, un tel problème était résolu expérimentalement par essais et erreurs, entraînant des processus de conception coûteux et chronophages. Depuis le milieu du 20e siècle, avec l'accès généralisé à des moyens de calcul de plus en plus puissants, les ``jumeaux virtuels'' ou simulations numériques basées sur la physique, sont devenus un outil essentiel pour la recherche, réduisant le besoin de mesures expérimentales. À la fin du XXe siècle, le volume de données augmente et se répands massivement dans la plupart des domaines. Ceci conduit à la prolifération des techniques d'Intelligence Artificielle (IA), ou ``jumeaux numériques'', remplaçant partiellement les ``jumeaux virtuels'' grâce à leur plus faible technicité. Aujourd'hui, ces évolutions ont abouti à un cadre où la théorie, l'expérimentation, la simulation et les données peuvent interagir en synergie et se renforcer mutuellement.Dans ce contexte, Stellantis vise à explorer comment l'IA peut améliorer le processus de conception d'un système complexe. A cette fin, l'objectif principal de cette thèse est de développer un modèle de substitution paramétrique de la géométrie d'un aérateur innovant. Le modèle renvoit la norme du champ de vitesse au niveau du visage du pilote afin d'explorer l'espace des géométries possibles tout en évaluant leurs performances en temps réel. Le développement d'un tel modèle basé sur des données pose plusieurs problèmes conceptuels qui peuvent être résolus par l'IA.L'utilisation de techniques de régression classiques peut conduire à des résultats non physiques dans certains domaines tels que la dynamique des fluides. Ainsi, le modèle de substitution paramétrique proposé est basé sur la théorie du Transport Optimal (OT) qui offre une approche mathématique pour mesurer des distances et interpoler d'une manière novatrice.Le succès d'un modèle basé sur des données dépend de la qualité des données d'entraînement. D'une part, les données expérimentales sont considérées comme les plus réalistes, mais elles sont extrêmement coûteuses et laborieuses. D'autre part, les simulations numériques sont plus accessibles et rapides, mais présentent un écart important par rapport à la réalité. Ainsi, une approche Jumeau Hybride est proposée, basée sur la théorie du OT, afin de combler l'ignorance entre la simulation et la mesure.Le processus d'échantillonnage des données d'entraînement est devenu une charge de travail centrale dans le processus de développement d'un modèle basé sur des données. Une méthodologie d'Apprentissage Actif est donc proposée pour sélectionner de manière itérative et intelligente les points d'entraînement, baséee sur les objectifs industriels attendus du composant étudié, afin de minimiser le nombre d'échantillons nécessaires. Ainsi, cette stratégie d'échantillonnage maximise les performances du modèle tout en convergeant vers la solution optimale du problème industriel.L'exactitude d'un modèle basé sur des données est généralement l’objectif principal lors de son entraînement. Or, la réalité est complexe et imprévisible, ce qui fait que des paramètres d'entrée peuvent être connus avec un certain degré d'incertitude. Par conséquent, une méthodologie de quantification des incertitudes, basée sur les estimateurs de Monte Carlo et l'OT, est proposée pour prendre en compte la propagation des incertitudes dans le modèle et pour quantifier leur impact sur sa précision
The industrial design of a component is a complex, time-consuming and costly process constrained to precise physical, styling and development specifications led by its future conditions and environment of use. Indeed, an industrial component is defined and characterized by many parameters which must be optimized to best satisfy all those specifications. However, the complexity of this multi-parametric constrained optimization problem is such that its analytical resolution is compromised.In the recent past, such a problem was solved experimentally, by trial and error, leading to expensive and time-consuming design processes. Since the mid-20th century, with the advancement and widespread access to increasingly powerful computing technologies, the ``virtual twins'', or physics-based numerical simulations, became an essential tool for research and development, significantly diminishing the need for experimental measurements. However, despite the computing power available today, ``virtual twins'' are still limited by the complexity of the problem solved and present some significant deviations from reality due to the ignorance of certain subjacent physics. In the late 20th century, the volume of data has surge enormously, massively spreading in the majority of fields and leading to a wide proliferation of Artificial Intelligence (AI) techniques, or ``digital twins'', partially substituting the ``virtual twins'' thanks to their lower intricacy. Nevertheless, they need an important training stage and can lead to some aversion since they operate as black boxes. Today, these technological evolutions have resulted in a framework where theory, experimentation, simulation and data can interact in synergy and reinforce each other.In this context, Stellantis aims to explore how AI can improve the design process of a complex aerodynamic system: an innovative cockpit air vent. To this purpose, the main goal of this thesis is to develop a parametric surrogate of the aerator geometry which outputs the norm of the velocity field at the pilot's face in order to explore the space of possible geometries while evaluating their performances in real time. The development of such a data-based metamodel entails several conceptual problems which can be addressed with AI.The use of classical regression techniques can lead to unphysical interpolation results in some domains such as fluid dynamics. Thus, the proposed parametric surrogate is based on Optimal Transport (OT) theory which offers a mathematical approach to measure distances and interpolate between general objects in a novel way.The success of a data-driven model relies on the quality of the training data. On the one hand, experimental data is considered as the most realistic but is extremely costly and time-consuming. On the other hand, numerical simulations are cheaper and faster but present a significant deviation from reality. Therefore, a Hybrid Twin approach is proposed based on Optimal Transport theory in order to bridge the ignorance gap between simulation and measurement.The sampling process of training data has become a central workload in the development process of a data-based model. Hence, an Active Learning methodology is proposed to iteratively and smartly select the training points, based on industrial objectives expected from the studied component, in order to minimize the number of needed samples. Thus, this sampling strategy maximizes the performance of the model while converging to the optimal solution of the industrial problem.The accuracy of a data-based model is usually the main concern of its training process. However, reality is complex and unpredictable leading to input parameters known with a certain degree of uncertainty. Therefore, a data-based Uncertainty Quantifcation methodology, based on Monte Carlo estimators and OT, is proposed to take into account the uncertainties propagation into the surrogate and to quantify their impact on its precision
Styles APA, Harvard, Vancouver, ISO, etc.
24

Marques, Guillaume. « Problèmes de tournées de véhicules sur deux niveaux pour la logistique urbaine : approches basées sur les méthodes exactes de l'optimisation mathématique ». Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0199.

Texte intégral
Résumé :
Cette thèse s’intéresse principalement au développement de méthodes d’optimisation mathématique exactes pour résoudre des problèmes de tournées de véhicules dans un réseau de distribution à deux niveaux. Dans un tel réseau, des camions circulent au premier niveau et transportent des marchandises d’un centre de distribution vers des dépôts intermédiaires appelés « satellites ». Au second niveau, des véhicules légers récupèrent les marchandises aux satellites puis livrent les clients. Chaque client doit être visité une seule fois. L’objectif du problème de tournées de véhicules sur deux niveaux est de minimiser le coût total de transport dans un tel réseau de distribution.Le premier chapitre présente succinctement l’algorithme de « branch-and-cut-and-price » que nous utilisons tout au long de la thèse.Le second chapitre s’intéresse au « Two-Echelon Capacitated Vehicle Routing Prob- lem ». Nous présentons une nouvelle formulation du problème basée sur des routes qui ne contient pas de variable pour déterminer les quantités de marchandises livrées aux satellites. Nous proposons une nouvelle stratégie de branchement qui permet de significativement réduire la taille de l’arbre de branch-and-bound. Enfin et surtout, nous présentons une nouvelle famille d’inégalités valides nommée « satellite supply inequalities ». Nous montrons que cette nouvelle famille améliore la qualité de la borne duale au nœud racine de l’arbre de « branch-and-bound ». Les expérimentations montrent que notre algorithme résout toutes les instances de la littérature qui contiennent jusqu’à 200 clients et 10 satellites. C’est le double de la taille des instances qui étaient résolues à l’optimalité jusqu’ici.La troisième chapitre s’intéresse au « Two-Echelon Vehicle Routing Problem with Time Windows ». Ici, nous considérons une variante avec des contraintes de précédence aux satellites : un camion doit livrer les marchandises à un satellite avant qu’elles soient chargées dans un véhicule léger. C’est une relaxation de la variante avec synchronisation exacte considérée dans la littérature. Nous traitons les variantes « single trip » et « multi trip » du problème avec contraintes de précédence. Dans la seconde variante, les véhicules légers partent d’un dépôt, récupèrent les marchandises aux satellites, puis effectuent plusieurs tournées. Nous proposons une formulation basée sur les routes dont le nombre de contraintes de précédence croît exponentiellement en fonction du nombre de satellites. Un algorithme basé sur une coupe minimum est proposé pour séparer ces contraintes. Nous montrons aussi comment prendre en compte ces contraintes dans le problème de pricing de l’algorithme de génération de colonnes. Les expérimentations montrent que notre algorithme peut résoudre à l’optimalité des instances qui contiennent jusqu’à 100 clients. De plus, nous montrons que la variante du problème avec contraintes de précédence donne des résultats identiques à ceux de la variante avec synchronisation exacte pour les instances « single trip » de la littérature.La quatrième chapitre s’intéresse à des problèmes de tournées de véhicules contenant des contraintes de type sac-à-dos. Nous présentons des coupes de type « route load knapsack ». Ces coupes sont utilisées pour résoudre les trois problèmes suivants: « Capacitated Vehicle Routing Problem with Capacitated Multiple Depots », « Location- Routing Problem » et « Vehicle Routing Problem with Time Windows and Shifts ». Ces problèmes apparaissent lorsque les routes au premier niveau du réseau de distribution à deux niveaux sont fixées. Nos expérimentations permettent de trouver de nouvelles solutions optimales
The main focus of this thesis is to develop mathematical optimization based exact methods to solve vehicle routing problems in two-level distribution systems. In such a system, the first level involves trucks that ships goods from a distribution center to intermediate depots called satellites. The second level involves city freighters that are loaded with goods at satellites and deliver the customers. Each customer must be visited once. The two-echelon vehicle routing problem seeks to minimize the total transportation cost in such a distribution system.The first chapter gives an overview of the branch-and-cut-and-price framework that we use throughout the thesis.The second chapter tackles the Two-Echelon Capacitated Vehicle Routing Problem. We introduce a new route based formulation for the problem which does not use variables to determine product flows in satellites. We propose a new branching strategy which significantly decreases the size of the branch-and-bound tree. Most importantly, we suggest a new family of satellite supply inequalities, and we empirically show that it improves the quality of the dual bound at the root node of the branch-and-bound tree. Experiments reveal that our algorithm can solve all literature instances with up to 200 customers and 10 satellites. Thus, we double the size of instances which can be solved to optimality.The third chapter tackles the Two-Echelon Vehicle Routing Problem with Time Windows. We consider the variant with precedence constraints at the satellites: products should be delivered by an urban truck to a satellite before loading them to a city freighter. This is a relaxation of the synchronisation variant usually considered in the literature. We consider single-trip and multi-trip variants of this problem. In the first one, city freighters start from satellites and do a single trip. In the second one, city freighters start from a depot, load product at satellites, and do several trips. We introduce a route based formulation that involves an exponential number of constraints to ensure precedence relations. A minimum-cut based algorithm is proposed to separate these constraints. We also show how these constraints can be taken into account in the pricing problem of the column generation approach. Experiments show that our algorithm can solve to optimality instances with up to 100 customers. The algorithm outperforms significantly another recent approach proposed the literature for the single-trip variant of the problem. Moreover, the “precedence relaxation” is exact for single-trip instances.The fourth chapter considers vehicle routing problems with knapsack-type constraints in the master problem. For these problems, we introduce new route load knapsack cuts and separation routines for them. We use these cuts to solve to optimality three problems: the Capacitated Vehicle Routing Problem with Capacitated Multiple Depots, the standard Location-Routing Problem, and the Vehicle Routing Problem with Time Windows and Shifts. These problems arise when routes at first level of the two-level distribution system are fixed. Our experiments reveal computational advantage of our algorithms over ones from the literature
Styles APA, Harvard, Vancouver, ISO, etc.
25

Lainé, Régis. « Contribution à la conception de cellules robotisées : une approche basée sur les algorithmes génétiques ». Poitiers, 2004. http://www.theses.fr/2004POIT2323.

Texte intégral
Résumé :
Cette thèse présente une nouvelle méthode pour traiter le problème de la synthèse géométrique des robots industriels. Il s'agit d'une méthode d'optimisation basée sur un algorithme génétique, qui a conduit à l'implémentation d'un module de conception dans le logiciel de CAO-Robotique SMAR développé par le Laboratoire de Mécanique de Solides. Cette méthode détermine automatiquement les paramètres géométriques d'un robot (topologie, dimensions et positionnement) les mieux adaptés à une tâche donnée, au sens d'une fonction objectif donnée. La fonction dépend de trois critères homogénéisés qui mesurent l'éloignement des butées articulaires, le volume de l'espace de configuration nécessaire pour accéder à la tâche et la taille du robot. Les paramètres obtenus assurent l'accessibilité à la tâche, de façon continue et sans collision avec l'environnement. Plusieurs exemples sont présentés pour illustrer la méthode proposée. Les résultats montrent que la méthode est efficace, robuste et rapide
This thesis deals with the kinematic synthesis problem of industrial robots. It presents an optimization method based on a genetic algorithm, which led to the implementation of a design module, in the CAD-Robotics SMAR system developed at the Laboratoire de Mécanique des Solides. This method determines automatically well adapted geometrical parameters of a robot (kinematic architecture, dimensions and the robot placement) for a given task and an objective function. The function depends on three homogenized coefficients which measure: the distance between the joint values and the joint limits of the robot, the necessary volume of the configuration space to achieve the task and the robot size. The geometrical parameters are determined so that the task is accessible continuously without collision with the environment. As illustration, several examples present the proposed method of kinematic synthesis. The results show that the method is effective, robust and fast
Styles APA, Harvard, Vancouver, ISO, etc.
26

Lisi, Samuele. « Approches innovantes basées sur la Résonance des Plasmons de Surface pour le diagnostic biomoléculaire de la maladie d’Alzheimer ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAV003/document.

Texte intégral
Résumé :
La maladie d’Alzheimer est une pathologie neurodégénérative qui amène à une perte progressive de la mémoire et cause des changements comportementaux. Selon plusieurs théories, le développement de cette maladie est associé à l’accumulation du peptide amyloïde beta et de la protéine tau dans des zones précises du cerveau humain. A l’heure actuelle, les approches thérapeutiques testées sont fondées sur l’hypothèse de la cascade amyloïde, mais les résultats n’ont pas été jugés suffisamment efficaces. Pour augmenter les chances de succès des traitements thérapeutiques existants, de meilleures techniques pour un dépistage précoce de l’Alzheimer semblent nécessaires. De ce fait, dans cette thèse, des stratégies innovantes pour l’analyse d’un des biomarqueurs de la maladie d’Alzheimer sont proposées. En particulier le projet porte sur l’analyse de la protéine tau avec des biocapteurs basés sur la Résonance de Plasmons de Surface (SPR). L’augmentation du niveau de ce biomarqueur dans le Liquide Céphalo-Rachidien (LCR) est déjà indicateur d’un processus de neurodégénérescence. De plus, si la mesure de la protéine tau est combinée à celle d’autres biomarqueurs de la pathologie (i.e. : amyloïde beta), les possibilités de dépistage sont fortement augmentées. Les travaux ont portés sur deux aspects : initialement l’interaction antigène-anticorps a été exploitée pour développer un immunocapteur pour la protéine tau. En utilisant cette technologie, nous avons pu caractériser les paramètres analytiques de l’essai direct (avec un seul anticorps) et ceux de l’essai sandwich (avec deux anticorps complémentaires). Dès ces premières approches, nous avons remarqué le besoin d’augmenter la sensibilité de la méthode SPR développée. En effet la limite de détection pour l’essai sandwich était de l’ordre du nM, alors que les niveaux de tau dans le LCR sont de l’ordre du pM. L’utilisation de nanotechnologies, en particulier des nanotubes de carbone, a permis d’atteindre des niveaux proches du pM, avec de bonnes performances en terme de répétabilité de l’essai.Une approche alternative a été conçue dans la deuxième partie du projet. Elle était consacrée à la sélection d’un aptamère pour la protéine tau, afin d’exploiter les avantages de cette classe de récepteurs par rapport aux anticorps. Pour accomplir cet objectif, deux stratégies de sélection ont été mises en place. Premièrement la sélection traditionnelle (SELEX, Systematic Evolution of Ligands by EXponential enrichment) a été appliquée en utilisant l’Electrophorèse Capillaire (EC) comme moyen de séparation. Bien que de nombreuses conditions aient été modifiées, avec le SELEX traditionnel nous n’avons pas observé une évolution significative de l’affinité entre les séquences d’ADN et la protéine tau. Dans la deuxième approche nous avons utilisé la même méthode de séparation pour mener la sélection à travers l’EC-Non-SELEX. En utilisant cette méthode, où les étapes de PCR étaient réduites, une évolution positive a été observée après seulement trois rounds. En effet cinq séquences parmi celles issues du dernier round ont montré une affinité supérieure pour la cible par rapport à la banque. Néanmoins le nombre de séquences analysées à la fois par SPR et par anisotropie de fluorescence reste extrêmement limité par rapport au pool initial. Même si ceci semble être une limite, ce travail est le premier où les aptamères sont appliqués à l’analyse de la protéine tau. Le potentiel de cette classe de récepteurs reste en grande partie inexploré, ce qui laisse entrevoir des améliorations possibles de l’affinité grâce à de meilleurs processus de sélection et au développement de nouveaux outils bioinformatiques.En conclusion la SPR grâce à ses caractéristiques jouera un rôle fondamental dans les prochaines années pour l’analyse des biomarqueurs et pour le screening de nouvelles molécules, qui seront l’objet de futurs essais cliniques pour limiter l’agrégation de la protéine tau
Alzheimer’s disease (AD) is a widespread pathogenic condition causing memory and behavior impairment mostly in elderlies because of the accumulation of amyloid beta peptide and tau protein in human brain. Current therapeutic approaches, based on the amyloid hypothesis, are unable to arrest the progression of the disease, hence early diagnosis is crucial for an effective intervention. Based on the updated criteria for AD probable diagnosis, and considering the limits associated with the actual analytical techniques, my work in this thesis was dedicated to develop novel strategies for AD diagnosis. The whole project focused on the analysis of tau protein by Surface Plasmon Resonance (SPR) biosensing. Such protein is well known for being relevant as neurodegenerative marker. In particular if the measurement of tau is associated with that of the amyloid beta peptide and that of the phosphorylated tau, the clinical specificity of this protein become significant to detect Alzheimer. Two aspects were studied; first of all an immunosensor was developed taking advantage of the well-established antigen-antibody interaction. After characterization of the analytical parameters of the direct assay (with primary antibody), a sandwich assay (using two monoclonal antibodies mapping on different analyte i.e. protein tau epitopes) was developed, allowing very low sensitivity to be obtained in artificial Cerebrospinal Fluid (aCSF). In particular to enhance the analytical signal Carbon Nano Tubes (CNTs) were used. Secondly, the research was focused on the selection of aptamers for tau. To this aim two SELEX (Systematic Evolution of Ligands by EXponential enrichment) methods were compared, both based on Capillary Electrophoresis (CE) for partitioning step of the process. Whether with CE-SELEX (first method), no significant affinity improvement was measured, using the CE-Non-SELEX (second method) affinity of the DNA library for tau protein was consistently improved. After isolation of a limited population of aptamer candidates, five sequences were chosen to be analyzed for their affinity for the target. Fluorescence Anisotropy (FA) measurements and SPR highlight similar behavior for the selected sequences, despite the detection principles of these techniques are significantly different. In conclusion the work highlight versatility of SPR technology used both for quantitative analysis and for new selected aptamers characterization in terms of affinity for the analyte tau. The above mentioned versatility is of great interest in a field such AD, which is rapidly expanding. Lowering the total tau levels has been recently identified as a new goal for therapy. Therefore many drug candidates are likely going to be tested in the near future. SPR technology is already widely used in pharmaceutical industry to investigate novel molecules, since it gives access to a large panel of information. In this panorama aptamer technology may improve the overall quality of the analytical data, allowing better comparison among drug candidates. With respect of these receptors, the thesis opened the door to new studies for DNA aptamers to recognize tau, with considerable advantages in term of the receptor stability. Moreover the whole potential of DNA aptamers selected in this work still remain to be explored. New selection methodologies, combined with fast progression of bioinformatics tools might give rise to affinity improvement, which will lead to sensitivity improvement for tau detection in the next few years
Styles APA, Harvard, Vancouver, ISO, etc.
27

Besancon, Marjorie. « Immunothérapie non-spécifique du cancer de la vessie : développement de nouvelles approches basées sur la combinaison d'agents thérapeutiques ». Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27996.

Texte intégral
Résumé :
Le cancer de la vessie est au niveau mondial le 9ème cancer en importance avec 430 000 nouveaux cas diagnostiqués en 2014. Les tumeurs vésicales infiltrant le muscle représentent environ 25% des tumeurs au premier diagnostic, alors que les tumeurs vésicales non infiltrant le muscle représentent environ 75% de ces tumeurs. Ces dernières sont généralement associées à un bon pronostic mais sont caractérisées par un taux élevé de récidive et de progression, alors que les premières sont d’emblée agressives et présentent un risque élevé de progression vers les stades avancés de la maladie. Parmi les différentes thérapies disponibles pour la prise en charge des tumeurs vésicales on retrouve l’immunothérapie non-spécifique par le Bacillus de Calmette-Guérin (BCG) pour les tumeurs non-infiltrant le muscle et, depuis peu, les inhibiteurs de point de contrôle immunologique (PCI) pour les tumeurs à des stades avancés. Le cancer de la vessie est un des rares cancers à bien répondre à l’immunothérapie, mais malgré cela ces traitements ne sont pas optimaux. L’objectif principal de mon projet était de développer de nouvelles approches immunothérapeutiques plus efficaces pour lutter contre les cancers de la vessie. Pour ce faire, trois approches complémentaires ont été investiguées dans des modèles murins de cancer de la vessie. Dans un premier temps, nous avons évalué in vitro et in vivo le potentiel du poly(I:C), un agoniste du TLR3, utilisé seul ou en combinaison avec le BCG. Alors que le poly(I:C) a induit une diminution de la prolifération et une induction de l’apoptose dans des cellules de cancer de la vessie traitées in vitro, la combinaison poly(I:C)/BCG a induit, in vivo, une régression tumorale complète chez 28% des souris traitées. Par la suite, nous avons évalué le potentiel de deux combinaisons d’inhibiteurs de PCI dans deux modèles murins différents de cancer de la vessie. La première combinaison étudiée est celle du blocage simultané des PCI PD-1 et TIM-3 testée dans le modèle MBT-2 puisque que la caractérisation des tumeurs MBT-2 a montré que ces deux récepteurs étaient des PCI fréquemment exprimés dans ces tumeurs. Le blocage in vivo de ces voies de signalisation a révélé que, dans les tumeurs MBT-2, PD-1 est associé à une activité pro-tumorale, alors que de façon étonnante, TIM-3 est associé à une activité anti-tumorale, révélant des fonctions opposées de ces deux PCI dans ces tumeurs. La seconde combinaison étudiée est celle des PCI PD-1 et LAG-3 testée cette fois-ci dans le modèle MB49. La caractérisation des tumeurs MB49 a démontré que PD-1 et LAG-3 étaient des PCI importants dans ces tumeurs. L’étude in vivo a démontré que l’inhibition conjointe des voies PD-1 et LAG-3 doublait le taux de survie, puisque 67% des souris démontraient une régression tumorale complète alors que les taux de survie étaient respectivement de 33% et 0% lorsque les anti-PD-1 et anti-LAG-3 étaient administrés en monothérapie. Finalement, puisque les androgènes semblent jouer un rôle important dans le cancer de la vessie, nous avons testé une approche combinant l’inhibition de PD-1 et du récepteur aux androgènes (AR). Nous avons démontré que l’enzalutamide et le seviteronel, des anti-androgènes de deuxième génération, induisaient in vitro une diminution de la prolifération des cellules de cancer de la vessie humaines et murines. In vivo, la combinaison d’enzalutamide et d’anti-PD-1 a démontré un taux de survie de 66%, soit un taux bien supérieur au taux de 16% observé lors de l’utilisation de l’enzalutamide ou de l’anti-PD-1 utilisés en monothérapie. Ces études ont ainsi permis d’identifier différentes avenues possibles, pour augmenter la réponse immune anti-tumorale, qui pourraient être testées en essais cliniques. Elles démontrent également que la combinaison d’approches thérapeutiques est très prometteuse pour l’avenir de l’immunothérapie du cancer de la vessie.
Bladder cancer (BCa) is the ninth most common cancer in the world, with 430 000 new cases diagnosed in 2014. Muscle-invasive bladder cancer represents about 25% of bladder tumors, while non-muscle-invasive bladder cancer represents about 75% of these tumors. The latter are usually associated with a favorable prognosis but are characterized by a high rate of recurrence and progression while the former are aggressive from the onset and are at high risk of progression toward advanced disease. Among the various therapies available for the management of bladder tumors is non-specific immunotherapy using bacillus Calmette-Guerin (BCG) for the treatment on non-muscle invasive bladder tumors and, more recently, inhibitors of immune checkpoint (IC) for the treatment of advanced bladder tumors. BCa is one of the rare cancers to respond well to immunotherapy but, nevertheless, these treatments are suboptimal. The main objective of my project was to develop new immunotherapeutic approaches to fight more efficiently against BCa. To achieve this, three complementary approaches were investigated in murine BCa models. We first assessed in vitro and in vivo the potential of poly(I:C), a TLR3 agonist, used alone or in combination with BCG. While poly(I:C) induced anti-proliferative and apoptotic effects on BCa cells in vitro, the combination of poly(I:C) and BCG induced in vivo a complete tumor regression in 28% of treated mice. Then, we evaluated the potential of two combinations of IC inhibitors in two murine BCa models. The first combination studied was that of the simultaneous blockade of PD-1 and TIM-3 tested in the MBT-2 model because the characterization of the MBT-2 tumors showed that these two receptors where frequently IC expressed in these tumors. In vivo blockade of these pathways revealed that in MBT-2 tumors, PD-1 is associated to a pro-tumoral activity, whereas, TIM-3 is associated with anti-tumoral activity, revealing opposite functions of these IC in these tumors. The second combination studied was that of PD-1 and LAG-3 tested in the MB49 BCa model. The characterization of MB49 tumors showed that PD-1 and LAG-3 were important IC in these tumors. The in vivo study showed that the simultaneous blockade of PD-1 and LAG-3 increased the survival rate, since 67% of mice showed a complete tumor regression while the survival rates were 33% and 0% when anti-PD-1 and anti-LAG-3, respectively, were used in monotherapy. Finally, since androgens seem to play an important role in BCa, we tested an approach combining the inhibition of PD-1 and of the androgen receptor (AR). We showed that enzalutamide and seviteronel, two second generation antiandrogens, induced in vitro a decrease of the proliferation of human and murine BCa cells. In vivo, the combination of enzalutamide with anti-PD-1 showed a 66% overall survival rate, a rate that is much higher than the 16% rate observed when enzalutamide or anti-PD-1 were used alone. Thus, these studies allowed us to identify various possible ways to increase anti-tumor immune response that could be tested in clinical trials. They also show that the combination of therapeutic approaches is very promising the future of BCa immunotherapy.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Esculier, Jean-François. « Le syndrome fémoropatellaire chez les coureurs : effets de différentes approches de réadaptation basées sur les mécanismes sous-jacents ». Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27727.

Texte intégral
Résumé :
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017
Soixante-neuf coureurs ayant un syndrome fémoropatellaire (SFP) ont participé à une session d’évaluation pendant laquelle les symptômes et limitations fonctionnelles, la force musculaire, les chaussures de course, la cinématique et la cinétique de course et l’état radiologique du genou atteint ont été évalués. Pendant la technique de course habituelle, l’utilisation de chaussures montrant un niveau de minimalisme plus important tel qu’objectivé par l’Indice minimaliste était associée à une cadence des pas plus élevée ainsi qu’un angle d’inclinaison du pied et une force à l’articulation fémoropatellaire moindres, qui représentent des variables clés dans le traitement du SFP selon la littérature actuelle. Des modifications au patron de course habituel ont permis de diminuer la douleur de façon immédiate chez une portion des coureurs, en lien avec une réduction de la cinétique fémoropatellaire. Chez les attaqueurs du talon, le fait d’augmenter la cadence, de transférer vers une attaque de l’avant-pied et de courir sans bruit ont été les modifications les plus efficaces, en comparaison avec l’augmentation de la cadence et la course sur l’avant-pied chez les attaqueurs non-talon. Les coureurs ont ensuite été assignés à un programme de réadaptation d’une durée de 8 semaines parmi (1) éducation sur les modifications d’entraînement en fonction des symptômes; (2) programme d’exercices en plus de la composante d’éducation; (3) modifications au patron de course en plus de la composante d’éducation. Les trois programmes ont mené à des améliorations significatives sur les niveaux de symptômes et de limitations fonctionnelles. Cependant, bien que les mécanismes sous-jacents aux modifications du patron de course et au programme d’exercices aient bel et bien été modifiés, l’ajout de telles composantes à l’éducation n’a pas procuré de bénéfice supplémentaire à une intervention impliquant seulement l’éducation. Globalement, 78% des coureurs ont atteint le critère de succès clinique au suivi 3 mois après la fin de l’intervention. La combinaison du niveau de symptômes et de limitations fonctionnelles, de la force des extenseurs du genou et de l’intégrité du tendon rotulien a montré la meilleure capacité à prédire le succès clinique suite à une intervention mettant l’emphase sur l’éducation chez cette cohorte de coureurs ayant un SFP.
Sixty-nine runners with patellofemoral pain (PFP) took part in a baseline assessment during which their level of symptoms and function, lower limb strength, running shoes, running kinematics and kinetics as well as radiological outcomes were evaluated. During the habitual running pattern, the use of footwear showing a greater level of minimalism as indicated by the Minimalist Index was associated with outcomes that have previously been suggested to treat PFP in runners, namely greater step rate, lower foot inclination angle and lower patellofemoral joint kinetics. Running gait modifications, which were linked with decreased patellofemoral joint kinetics, were efficient in immediately decreasing symptoms in a subset of runners. In rearfoot strikers, the most efficient modifications were increasing step rate, forefoot striking and running softer, while non-rearfoot strikers benefited from increasing step rate and forefoot striking. Runners were then assigned to one of three 8-week rehabilitation programs among (1) education on training modifications based on symptoms; (2) an exercise program in addition to the education component; (3) gait retraining in addition to the education component. All programs led to significant improvements in the levels of symptoms and functional limitations. Even though gait retraining and exercises improved their targeted mechanisms, their addition to education did not provide additional benefits. Globally, 78% reached clinical success at the follow-up 3 months after the end of the program. A combination of the level of symptoms and function, knee extensors strength and patellar tendon integrity best predicted clinical success of runners with PFP following an intervention focused on education.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Gan, Changquan. « Une approche de classification non supervisée basée sur la notion des K plus proches voisins ». Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Texte intégral
Résumé :
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
Styles APA, Harvard, Vancouver, ISO, etc.
30

Embe, Jiague Michel. « Approches formelles de mise en oeuvre de politiques de contrôle d'accès pour des applications basées sur une architecture orientée services ». Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6683.

Texte intégral
Résumé :
La sécurité des systèmes d'information devient un enjeu préoccupant pour les organisations tant publiques que privées, car de tels systèmes sont pour la plupart universellement accessibles à partir de navigateurs Web. Parmi tous les aspects liés à la sécurité des systèmes d'information, c'est celui de la sécurité fonctionnelle qui est étudié dans cette Thèse sous l'angle de la mise en oeuvre de politiques de contrôle d'accès dans une architecture orientée services. L'élément de base de la solution proposée est un modèle générique qui introduit les concepts essentiels pour la conception de gestionnaires d'exécution de politiques de contrôle d'accès et qui établit une séparation nette entre le système d'information et les mécanismes de contrôle d'accès. L'instanciation de ce modèle conduit à un cadre d'applications qui comporte, entre autres, un filtre de contrôle d'accès dynamique. Cette Thèse présente également deux méthodes systématiques d'implémentation de ce filtre à partir de politiques écrites en ASTD, une notation graphique formelle basée sur les statecharts augmentés d'opérateurs d'une algèbre de processus. La notation ASTD est plus expressive que la norme RBAC et ses extensions. La première méthode repose sur une transformation de politiques de contrôle d'accès, instanciées à partir de patrons de base exprimés en ASTD, en des processus BPEL. La deuxième méthode est basée sur une interprétation de spécifications ASTD par des processus BPEL. Dans les deux cas, les processus BPEL s'exécutent dans un moteur d'exécution BPEL et interagissent avec le système d'information. Ces deux méthodes permettent une implémentation automatique d'un cadre d'applications à partir de la spécification de départ. Finalement, un prototype a été réalisé pour chacune des deux méthodes afin de montrer leur faisabilité au niveau fonctionnel et de comparer leurs performances au niveau système.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Mazzuca, Lidia. « Préparation, détermination de la structure et des propriétés physiques de composés moléculaires basées sur le formiate ». Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAY004.

Texte intégral
Résumé :
La synthèse et la caractérisation de nouveaux matériaux sont des enjeux majeurs en chimie et en physique. En particulier, les réseaux organométalliques (metal –oganic frameworks : MOFs) avec deux ou plusieurs fonctionnalités couplées, encore rares, sont très attractifs en raison de leur grande variété de propriétés et de leurs applications prometteuses connectant de nombreuses disciplines.Le développement de nouveaux matériaux fascinants peut avoir un impact considérable sur notre vie quotidienne, ce qui explique en partie l'intensification de la recherche dans le cadre de la science des matériaux et de la matière condensée.Cette thèse se concentre sur la synthèse et la caractérisation des propriétés physiques de structures magnétiques basées sur le formiate de métal en utilisant la combinaison de diffraction par neutrons et par rayons X ainsi que d'autres techniques.Les réseaux de métal-formiate sont un sous-groupe spécifique des réseaux organométalliques, typiquement synthétisés en faisant réagir un ligand organique avec un sel métallique sous des conditions solvo-thermiques ou par des techniques d'évaporation ou de diffusion lente. Les centres métalliques sont liés par des molécules de formiate formant un cadre anionique qui peut être équilibré électrochimiquement par des amines protonées.Dans ce travail, j’ai étudié la structure cristalline, les transitions de phases et les propriétés magnétiques de deux familles de composés qui sont représentés par les composés hétéro-métalliques ou à valence mixtes, adoptant une structure de type niccolite et des composés homo-métalliques adoptant une structure pérovskite (ABX3). Les composés suivants ont été synthétisés et caractérisés: [(CH3)2NH3][FeIIIMII(HCOO)6] (M = Mg, Mn, Fe, Co, Ni), [(CH3)2NH3][FeIIIFeII(HCOO)6], [(CH3NH3)[M(HCOO)3] (M = Co, Mn, Fe, Ni, Cu), and [(NH4)[Mn(HCOO)3].Le choix d'utiliser des ions métalliques spécifiques a été motivé par leur configuration électronique différente et, par conséquent, par les différents comportements physiques, c'est-à-dire une grande différence bien connue dans l'anisotropie magnétique des différents ions divalents utilisés dans cette étude. Outre les effets sur les propriétés lorsque différents ions métalliques divalents sont introduits dans la structure, un autre aspect intéressant est l’effet produit en changeant la nature des contre-ions. Même s'il n'y a pas de corrélation claire entre le contre-ion sélectionné et le changement de comportement magnétique, la diffraction des neutrons permet d'élucider les différences dans la structure nucléaire et dans la structure magnétique lorsque différents contre-ions sont utilisés. Par ailleurs, ce travail, nous aide à comparer nos résultats neutroniques avec les mesures complémentaires de magnétométrie. Une variété de phénomènes magnétiques tels que le comportement ferromagnétique, l'ordre antiferromagnétique, l’angle de basculement spin ont été observés dans les composés étudiés. De plus, du point de vue de la structure nucléaire, différentes transitions de phases ont été détectées impliquant par exemple l'ordre-désordre du contre-ion employé (dans [(CH3)2NH3][FeIIIMII(HCOO)6] par exemple), ou le passage d'une phase commensureable à une phase incommensurable donnant lieu à une modulation de la structure (dans [(CH3NH3)[Co(HCOO)3] par exemple)
The synthesis and the characterization of new materials are key challenges in chemistry and physics. In particular, metal–organic frameworks (MOFs) with two or more coupled functionalities are still rare and very attractive candidates because of their wide variety of properties, and promising applications interesting many disciplines. The impact of the development of new fascinating materials on our day life might be considerable. This is also one of the reason explaining the intense increasing of the research in material science and condensed matter.This thesis is focused on the synthesis and the physical characterization of magnetic metal formate frameworks using the combination of neutron and synchrotron X-Ray diffraction as well as other techniques. Metal-formate frameworks are a specific subgroup of metal-organic frameworks, where the metal centres are linked by the formate molecules to form an anionic framework. The negative charge of the framework is balanced by a counter-cation inside the frameworks’ cavities, that can be for example protonated amines.Typically, these compounds are synthesized by reacting formate or formic acid with a metal salt under solvo-thermal conditions or by slow evaporation or diffusion techniques.In this work, I investigated the crystal structure, phase transitions and magnetic properties of two families of metal formate frameworks, which are represented by the hetero-metallic or mixed valance compounds adopting a niccolite-like structure, and the homo-metallic compounds adopting a perovskite-like (ABX3) structure.Altogether, the following compounds were synthesized and characterized: [(CH3)2NH3][FeIIIMII(HCOO)6] (M = Mg, Mn, Fe, Co, Ni), [(CH3)2NH3][FeIIIFeII(HCOO)6], [(CH3NH3)[M(HCOO)3] (M = Co, Mn, Fe, Ni, Cu), and [(NH4)[Mn(HCOO)3].The choice of using specific metal ions has been motivated by their different electronic configuration and therefore different physical behaviours, i.e. a large difference in the magnetic anisotropy is well known among the different divalent ions used in this study. Beside the effects on the properties when different divalent metal ions were introduced within the framework, the effects of the nature of the counterions was investigated.Even though there is not a clear correlation between the selected counterion and the change of magnetic behaviour, neutron diffraction allows elucidating the differences in the nuclear and in the magnetic structure when different counterions are used. Moreover, these works help us to compare our neutron results with the magnetometry measurements, which is a complementary technique.A variety of magnetic phenomena such as ferromagnetic behaviour, antiferromagnetic ordering, spin canting have been observed in the compounds studied. Furthermore, from the nuclear structure point of view many different kind of phase transitions were detected involving for instance, the order-disorder of the counter ion employed (in [(CH3)2NH3][FeIIIMII(HCOO)6] for example), or the transition from a commensurate to incommensurate phase giving rise to a modulation of the structure (in [(CH3NH3)[Co(HCOO)3] for example)
Styles APA, Harvard, Vancouver, ISO, etc.
32

Tchekiken, El Hadi. « Estimation de l'orientation 3D du cœur : une approche basée sur l'analyse de la structure spatio-temporelle de l'électrocardiogramme orthogonal ». Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0008.

Texte intégral
Résumé :
Notre travail porte sur l'estimation de l'orientation 3D du coeur à partir de l'électrocardiogramme (ECO) orthogonal. L'objectif à terme est de réaliser une synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG pour la détection en série d'images échocardiographiques bidimensionnelles analysables en routine hospitalière. En effet, durant l'effort, le cœur est animé d'un mouvement pendulaire rendant contraignant l'examen échocardiographique. Nous proposons d'abord une méthode pour déterminer la position des boucles spatio-temporelle QRS et T successives dans un référentiel électrique lié aux axes anatomiques du sujet. Ceci nous conduit à déterminer trois axes principaux d'inertie pour chaque boucle ECG. Nous abordons ensuite l'étude de la reproductibilité spatiale et structurelle de ces boucles ECG en fonction de la respiration, de la posture et de l'effort. Les résultats obtenus confirment la reproductibilité (spatiale et structurelle) battement à battement des ECGs et mettent en évidence une corrélation entre la position anatomique du cœur et la position spatiale des boucles. Partant de l'hypothèse selon laquelle la structure spatio-temporelle de l'ECG est liée au système «cœur», nous développons une méthode permettant, à partir des boucles ECG, d'estimer l'orientation 'd'un axe anatomique du cœur. Nous proposons alors deux méthodes d'imagerie pour comparer les positions anatomiques et électriques du grand axe du VO. La première méthode est basée sur le repérage 3D de plans de coupes écho graphiques des quatre cavités, et la deuxième sur 1' imagerie par résonance magnétique tridimensionnelle (IRM 3D) du thorax et du cœur. Les résultats obtenus montrent qu'il existe une corrélation certaine entre les positions anatomiques et ~ électriques du cœur. De plus, il est possible d'estimer des changements de position du cœur d'un battement à l'autre, ce qui permet d'envisager une technique de synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG
This work is about the estimation of the 3D orientation of the heart from the orthogonal electrocardiogram. The long term objective is to perform a spatio-temporal ECG-gated echocardiography technique for the acquisition of serial, but comparable images during a stress echocardiography test. We first propose a method for the determination of the position of the successive spatio-temporal QRS and T loops with reference to the body coordinates system. We determine the inertia axes which define a new coordinates system closely related to the loop's preferential space. We then study the spatial and the structural reproducibility of the ECG loops for body posture, respiration and stress. The obtained results have confirmed the beat-to-beat reproducibility and evidenced the correlation between the position of the heart and the spatial position of the ECG loops. Starting from the hypothesis that the QRS and T loops are tied to the heart, we have developed a method to estimate the orientation of any anatomic axis of the heart. For the evaluation, we proposed two approaches which allow the confrontation of the electric and the anatomic positions of the heart. The first approach is based on the spatial determination of echocardiographic planes of the four chambers and the second one on the 3D MRI of the thorax and the heart. The results show that there is a correlation between electric and anatomic positions of the heart. In this work, we also evidenced that our method is suitable for the estimation of the changes of the beat-to-beat orientation of the heart. Hence, we can consider the development of a spatio-temporal ECG-gated echocardiography technique
Styles APA, Harvard, Vancouver, ISO, etc.
33

Chemak, Chokri. « Elaboration de nouvelles approches basées sur les turbos codes pour augmenter la robustesse du tatouage des images médicales : application au projet PocketNeuro ». Besançon, 2008. http://www.theses.fr/2008BESA2016.

Texte intégral
Résumé :
Dans la plupart des systèmes de communications sans fils, les turbos codes sont très puissants et particulièrement utiles pour la transmission sur les canaux à puissances limitées. Ce code correcteur d'erreur est très efficace pour vaincre les distorsions de transmissions. Les travaux de cette thèse consistent à intégrer le domaine du codage canal, et précisément le turbo code, au tatouage des images médicales. En effet, l'approche de tatouage d'image consiste à insérer un message dans l'image et à essayer de retrouver ce message avec le maximum de fidélité possible. Le message à insérer sera codé par le turbo code avant insertion dans l'image. Ceci a pour but de minimiser les erreurs sur le message inséré dans les images après leurs transmissions à travers les réseaux. Le premier but de cette thèse est d'élaborer de nouveaux schémas de tatouage, basés sur le turbo code, robustes contre les attaques les plus usuelles: les bruits, la compression JPEG le filtrage des images et les transformations géométriques comme le cropping. Dans ce premier but, le message inséré est considéré, comme une signature binaire qui identifie le propriétaire de l'image. Le deuxième but de la thèse est d'appliquer à la télémédecine les nouveaux schémas élaborés et ceci dans le cadre du projet PocketNeuro. Le message à insérer dans les images dans ce cas est considéré comme une information médicale relative au patient. Cette information sera codée par le turbo code puis insérée dans les images des diagnostics des patients. Deux mécanismes importants de notre contribution, la prise en charge de la confidentialité des informations médicales transmises entre les différents participants et la réalisation de l'adaptation des images aux terminaux
For the most communicating systems, the turbo code is used for the transmission in the power limited canal. This Error Correcting Code (ECC) is very efficient against distortions on the network transmissions. The main goal of this Ph. D work is to integrate the canal coding field or more precisely the turbo code in medical image watermarking. The image watermarking approach consists in embedding a message in image, and we will try to extract it with the maximum of possible fidelity. The message embedded will be coded with the turbo code before embedding it in image. This is for the aim to decrease errors in the message embedded after image transmission on networks. First we elaborate a new watermarking scheme, based on turbo code; robust against the most usually attacks on images: noises, JPEG compression image filtering and geometric transformations like the cropping. In this case, the message embedded is a binary mark that identify image own. Secondly we use these new schemes on telemedicine and more precisely on the PocketNeuro project. In this case, the message embedded into image is medical information about patient. This information will be coded with turbo code, and after that it will be embedded into patient diagnosis image. Two important studies on the PocketNeuro contribution, the confidentiality of the medical information transmitted between the different participants, and the image adaptation at the terminals
Styles APA, Harvard, Vancouver, ISO, etc.
34

Prosperi, Paolo. « Mesures de la sécurité alimentaire et de l'alimentation durable en Méditerranée, basées sur les approches de la vulnérabilité et de la résilience ». Electronic Thesis or Diss., Montpellier, SupAgro, 2015. http://www.supagro.fr/theses/extranet/15-0003_Prosperi.pdf.

Texte intégral
Résumé :
Les crises alimentaires récurrentes, les changements globaux, l'épuisement des ressources naturelles et les carences alimentaires en micronutriments placent la sécurité alimentaire et la durabilité environnementale au centre de l'agenda politique. Les analyses des interactions dynamiques entre les modes de consommation et les préoccupations environnementales ont reçu une attention considérable. Les changements socioéconomiques et biophysiques affectent les fonctions du système alimentaire, y compris la sécurité alimentaire et nutritionnelle. Ainsi, la durabilité du système alimentaire est menacée. La construction de systèmes alimentaires durables est devenue un effort majeur pour réorienter les systèmes et les politiques alimentaires vers des objectifs adaptés et vers l'amélioration du bien-être sociétal. L'identification et la modélisation des propriétés intrinsèques du système alimentaire peuvent contribuer à suivre les progrès accomplis vers la durabilité, et participer à la mise en place de politiques de transformation et d'innovation.L'objectif général de cette thèse est d'analyser la durabilité du système alimentaire à travers l'identification d'un ensemble d'indicateurs dans la région méditerranéenne. Spécifiquement il s'agit de développer un cadre multidimensionnel pour évaluer la durabilité des systèmes alimentaires, d'identifier les principales variables pour formaliser et opérationnaliser le concept abstrait et multidimensionnel des systèmes alimentaires durables, et de définir une série d'indicateurs pour évaluer la durabilité des systèmes à un niveau sous-régional.A travers une approche de la durabilité dans son sens large, la démarche méthodologique s'appuie sur les théories de la vulnérabilité et de la résilience. Suivant les étapes de l'évaluation de la vulnérabilité aux changements globaux, une analyse causale a été présentée à une échelle géographique concernant trois pays méditerranéens: l'Espagne, la France et l'Italie. Huit modèles causaux de la vulnérabilité ont été identifiés. Une enquête Delphi a ensuite été menée pour sélectionner les indicateurs.Un cadre conceptuel hiérarchique a été identifié pour modéliser les relations complexes entre la sécurité alimentaire et nutritionnelle et la durabilité. Il a ainsi été possible de formaliser huit modèles causaux de la vulnérabilité et de la résilience. Outre cela, les propriétés intrinsèques du système alimentaire qui modélisent les interactions directes entre les facteurs de changement (l'épuisement des ressources en eau; la perte de la biodiversité; la volatilité des prix; les changements dans les modes de consommation) et les enjeux de la sécurité alimentaire et nutritionnelle au niveau sous-régional (la qualité nutritionnelle de l'approvisionnement; l'accès économique, l'équilibre énergétique; la satisfaction des préférences) ont pu être identifiées. Chaque interaction a été déclinée en exposition, sensibilité et résilience. Ce cadre théorique a été opérationnalisé par l'identification d'une série de 136 indicateurs. L'étude Delphi a révélé des consensus de niveau majoritaire, faible, modéré ou fort sur les indicateurs dans 75% des interactions. Les résultats obtenus, en ce qui concerne les taux de réponse globale, des taux de participation d'experts, et de consensus sur les indicateurs, sont considérés plus que satisfaisants. Aussi, les experts ont confirmé la validité des enjeux et des interactions proposés.Cet exercice de modélisation théorique, ainsi que l'enquête Delphi, ont permis l'identification d'une première série d'indicateurs des systèmes alimentaire durables, et d'obtenir un consensus tout en évitant le risque d'une évaluation individuelle et subjective, afin de supporter le processus décisionnel. L'opérationnalisation des théories de la vulnérabilité et de la résilience, grâce à une approche basée sur des indicateurs, a fourni une démarche spécifique pour l'analyse des problèmes de la durabilité du système alimentaire
Recurrent food crises and global change, along with habitat loss and micronutrient deficiencies, placed food security and environmental sustainability at the top of the political agenda. Analyses of the dynamic interlinkages between food consumption patterns and environmental concerns recently received considerable attention from the international community. Socioeconomic and biophysical changes affect the food system functions including food and nutrition security. The sustainability of food system is at risk. Building sustainable food systems has become a key effort to redirect our food systems and policies towards better-adjusted goals and improved societal welfare. Food systems involve multiple interactions between human and natural components. The systemic nature of these interactions calls for systems approaches and integrated assessment tools. Identifying and modeling the intrinsic properties of the food system can help tracking progress towards sustainability and setting policies towards positive transformations.The general objective of this thesis is to analyze and explore the sustainability of the food system through identifying a set of metrics at the Mediterranean region level. The specific aims consist of developing a multidimensional framework to evaluate the sustainability of food systems and diets, identifying the main variables to formalize and operationalize the abstract and multidimensional concept of sustainable food systems, and defining metrics for assessing the sustainability of food systems and diets, at a subregional level.Through a broad understanding of sustainability, the methodological approach of this thesis builds on the theories of vulnerability and resilience. Following the steps of the global change vulnerability assessment a causal factor analysis is presented concerning three Mediterranean countries, namely Spain, France and Italy. Formulating "what is vulnerable to what" hypotheses, we identified eight causal models of vulnerability. A three-round Delphi survey was then applied to select indicators on the basis of the vulnerability/resilience theoretical framework.A conceptual hierarchical framework was identified for modeling the complex relationships between food and nutrition security and sustainability for developing potential indicators of sustainable diets and food systems. A feedback-structured framework of the food system formalized eight selected causal models of vulnerability and resilience and identified intrinsic properties of the food system, shaping the interactions where a set of drivers of change (Water depletion; Biodiversity loss; Food price volatility; Changes in food consumption patterns) directly affect food and nutrition security outcomes at a subregional level (Nutritional quality of food supply; Affordability of food; Dietary energy balance; Satisfaction of cultural food preferences). Each interaction was disentangled in exposure, sensitivity and resilience. This theoretical framework was operationalized through the identification of a set of 136 indicators. The Delphi study revealed low, medium, and high consensus and majority level on indicators in 75% of the interactions out of the 24 initial ones. The results obtained in terms of global response, expert participation rates, and consensus on indicators were then satisfactory. Also, expert confirmed with positive feedback the appraisal of the components of the framework.This theoretical modeling exercise and the Delphi survey allowed the identification of a first suite of indicators, moving beyond single and subjective evaluation, and reaching consensus on metrics of sustainable diets and food systems for supporting decision-making. The operationalization of the theories of vulnerability and resilience, through an indicator-based approach, can contribute to further analyses on the socioeconomic and biophysical aspects and interlinkages concerning the sustainability of diets and food systems
Styles APA, Harvard, Vancouver, ISO, etc.
35

Martin, Amaury. « Développement de nouvelles approches antivirales du virus de l'hépatite C basées sur l'utilisation d'interférons alpha variants et d'antisens de type Peptide Nucleic Acids ». Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00136018.

Texte intégral
Résumé :
L'infection par le virus de l'hépatite C (VHC) demeure une cause majeure de cirrhose et de carcinome hépatocellulaire. Compte tenu d'une efficacité encore insuffisante des thérapies actuelles (55% de succès en moyenne), le développement de nouvelles stratégies antivirales reste une priorité. Dans ce contexte, nos travaux ont porté sur l'évaluation de nouveaux variants de l'interféron alpha dans un modèle de réplicon VHC. Nous avons pu identifier un variant, GEA007.1 qui présente une activité anti-VHC supérieure à celle de l'IFN alpha-2b utilisé en clinique associé à une plus grande efficacité de transduction du signal. Nous avons également évalué une approche antisens avec des molécules de type Peptide Nucleic Acids (PNA) et montré qu'elle permettait d'inhiber la traduction in vitro du VHC par blocage de la région interne d'entrée du ribosome (IRES), de manière plus efficace et spécifique qu'une approche antisens avec des molécules de premières générations. Une telle stratégie se justifie par la conservation de la cible qui pourrait se révéler utile avec l'utilisation prochaine des anti-protéases et anti-polymérases du VHC et le risque inhérent d'apparition de résistances au traitement. L'ensemble de ces résultats montre que l'amélioration de la bithérapie actuelle est possible et que de nouvelles approches thérapeutiques fonctionnent.
Styles APA, Harvard, Vancouver, ISO, etc.
36

El, Moutaouakkil Abdelmajid. « Approche basée sur le squelette pour la segmentation et l'analyse 2D et 3D des images tomographiques de la structure osseuse ». Lyon, INSA, 1999. http://www.theses.fr/1999ISAL0027.

Texte intégral
Résumé :
L’objectif de notre travail de thèse est de segmenter les images radiologiques du système trabéculaire osseux, et d'en extraire des paramètres de quantification de la structure osseuse. Nous introduisons une nouvelle approche de segmentation, que nous appelons approche 'squelette', à côté des deux approches déjà citées dans la littérature qui sont l'approche 'région' et l'approche 'frontière'. Nous développons sous cette approche une méthode de segmentation, particulièrement adaptée à nos images tomographiques osseuses, basée sur une généralisation en niveaux de gris de la squelettisation binaire. Cette méthode est facilement adaptable à des images tomographiques de l'os provenant de systèmes radiologiques de conception et d'échelles différentes. Nous présentons et introduisons plusieurs méthodes de paramétrisation pour analyse quantitative de l'architecture osseuse (paramètres de connectivité, directionnels ou morphométriques) et discutons leur signification en comparaison avec les paramètres décrits antérieurement dans la littérature. Nous démontrons l'importante influence des paramètres de segmentation sur les mesures d'analyse de structure. Une calibration de la méthode développée et 1 une validation approfondie sont faites sur fantôme et sur spécimens anatomiques. Notre travail inclut la généralisation tridimensionnelle de la méthode de segmentation et de l'analyse paramétrique de l'architecture osseuse
The purpose of this thesis is to present segmentation of radiological images of the trabecular bone, and extraction of quantification parameters, characterising the bone structure. Segmentation methods are typically classified in “region” and “edge” approaches. In this study we developed a new “squeleton” based approach, particularly well suited to segment tomographic images of the trabecular bone. First the skeleton of the structure is extracted using a gray levet generalization of binary squeletonisation, and then the skeleton is perpendicularly thickened to detect the total structure. The proposed method is easily adaptable to tomographic images obtained from different radiological systems and performed well. We also introduced several direct methods for the parametrisation of the trabecular architecture such as connectivity, directional and morphometric parameters, which are interpreted and compared with parameters described earlier in the literature. The important influence of the segmentation factors on architectural parameters' measures is clearly demonstrated and quantified. The developed method was calibrated and validated on phantom and anatomical specimens. Generalisation of the methodology for the segmentation and the parametrisation of 3D images were performed
Styles APA, Harvard, Vancouver, ISO, etc.
37

Fraisse, Stéphane. « Structure de la communauté phytoplanctonique des fleuves côtiers en réponse aux contraintes hydrodynamique : une approche basée sur les traits morpho-fonctionnels ». Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00911634.

Texte intégral
Résumé :
Les traits fonctionnels sont de plus en plus utilisés en écologie pour expliquer les changements de composition et de structure de la communauté phytoplanctonique en fonction des contraintes environnementales. Ce succès tient au fait que les traits fonctionnels sont des caractéristiques reliées aux processus de croissance et de perte des organismes, et qu'ils déterminent ainsi l'occurrence, la dominance ou l'absence d'une espèce dans des conditions environnementales données. Parmi les traits fonctionnels, on distingue les traits morpho-fonctionnels qui présentent l'avantage d'être facilement observables et mesurables. Les approches basées sur les traits morpho-fonctionnels ont majoritairement été utilisées en lac mais pourraient toutefois s'avérer pertinentes en rivière où l'importance relative des contraintes environnementales agissant sur la communauté phytoplanctonique est très variable d'un système à l'autre. L'objectif de cette thèse a donc été de tester l'hypothèse selon laquelle la communauté phytoplanctonique en rivière pouvait être structurée selon les traits morpho-fonctionnels. Dans les rivières étudiées, nous avons montré que la communauté est structurée selon les traits morpho-fonctionnels reliés à la vitesse de sédimentation, en mettant en évidence le rôle clé de la forme des organismes, mais aussi de leur motilité et de leur densité via la présence de mucilage. A travers la sélection de différentes valeurs pour ces traits morpho-fonctionnels, nous avons pu mettre en évidence l'impact majeur de la turbulence sur la communauté phytoplanctonique de ces rivières. L'effet de ce paramètre a été testé expérimentalement en conditions contrôlées sur une communauté simplifiée afin de tester l'hypothèse selon laquelle sous l'effet de la turbulence, la composition de la structure de la communauté pouvait être prédite par les traits morpho-fonctionnels. Les résultats de cette approche expérimentale ont permis de réitérer le rôle clé de la forme dans la structure de la communauté corroborant ainsi les résultats de rivières et ont également souligné le rôle de la plasticité phénotypique. L'approche basée sur les traits a également été testée en estuaires, mais s'est cependant montré infructueuse. Plusieurs hypothèses ont été proposées pour expliquer ce résultat, notamment l'absence de trait identifié comme étant relié à la salinité.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Yaacoub, Tina. « Nouvelles approches pour l'estimation du canal ultra-large bande basées sur des techniques d'acquisition compressée appliquées aux signaux à taux d'innovation fini IR-UWB ». Thesis, Brest, 2017. http://www.theses.fr/2017BRES0077/document.

Texte intégral
Résumé :
La radio impulsionnelle UWB (IR-UWB) est une technologie de communication relativement récente, qui apporte une solution intéressante au problème de l’encombrement du spectre RF, et qui répond aux exigences de haut débit et localisation précise d’un nombre croissant d’applications, telles que les communications indoor, les réseaux de capteurs personnels et corporels, l’IoT, etc. Ses caractéristiques uniques sont obtenues par la transmission d’impulsions de très courte durée (inférieure à 1 ns), occupant une largeur de bande allant jusqu’à 7,5 GHz, et ayant une densité spectrale de puissance extrêmement faible (inférieure à -43 dBm/MHz). Les meilleures performances d’un système IR-UWB sont obtenues avec des récepteurs cohérents de type Rake, au prix d’une complexité accrue, due notamment à l’étape d’estimation du canal UWB, caractérisé par de nombreux trajets multiples. Cette étape de traitement nécessite l’estimation d’un ensemble de composantes spectrales du signal reçu, sans pouvoir faire appel aux techniques d’échantillonnage usuelles, en raison d’une limite de Nyquist particulièrement élevée (plusieurs GHz).Dans le cadre de cette thèse, nous proposons de nouvelles approches, à faible complexité, pour l’estimation du canal UWB, basées sur la représentation parcimonieuse du signal reçu, la théorie de l’acquisition compressée, et les méthodes de reconstruction des signaux à taux d’innovation fini. La réduction de complexité ainsi obtenue permet de diminuer de manière significative le coût d’implémentation du récepteur IR-UWB et sa consommation. D’abord, deux schémas d’échantillonnage compressé, monovoie (filtre SoS) et multivoie (MCMW) identifiés dans la littérature sont étendus au cas des signaux UWB ayant un spectre de type passe-bande, en tenant compte de leur implémentation réelle dans le circuit. Ces schémas permettent l’acquisition des coefficients spectraux du signal reçu et l’échantillonnage à des fréquences très réduites ne dépendant pas de la bande passante des signaux, mais seulement du nombre des trajets multiples du canal UWB. L’efficacité des approches proposées est démontrée au travers de deux applications : l’estimation du canal UWB pour un récepteur Rake cohérent à faible complexité, et la localisation précise en environnement intérieur dans un contexte d’aide à la dépendance.En outre, afin de réduire la complexité de l’approche multivoie en termes de nombre de voies nécessaires pour l’estimation du canal UWB, nous proposons une architecture à nombre de voies réduit, en augmentant le nombre d’impulsions pilotes émises.Cette même approche permet aussi la réduction de la fréquence d’échantillonnage associée au schéma MCMW. Un autre objectif important de la thèse est constitué par l’optimisation des performances des approches proposées. Ainsi, bien que l’acquisition des coefficients spectraux consécutifs permette une mise en oeuvre simple des schémas multivoie, nous montrons que les coefficients ainsi choisis, ne donnent pas les performances optimales des algorithmes de reconstruction. Ainsi, nous proposons une méthode basée sur la cohérence des matrices de mesure qui permet de trouver l’ensemble optimal des coefficients spectraux, ainsi qu’un ensemble sous-optimal contraint où les positions des coefficients spectraux sont structurées de façon à faciliter la conception du schéma MCMW. Enfin, les approches proposées dans le cadre de cette thèse sont validées expérimentalement à l’aide d’une plateforme expérimentale UWB du laboratoire Lab-STICC CNRS UMR 6285
Ultra-wideband impulse radio (IR-UWB) is a relatively new communication technology that provides an interesting solution to the problem of RF spectrum scarcity and meets the high data rate and precise localization requirements of an increasing number of applications, such as indoor communications, personal and body sensor networks, IoT, etc. Its unique characteristics are obtained by transmitting pulses of very short duration (less than 1 ns), occupying a bandwidth up to 7.5 GHz, and having an extremely low power spectral density (less than -43 dBm / MHz). The best performances of an IR-UWB system are obtained with Rake coherent receivers, at the expense of increased complexity, mainly due to the estimation of UWB channel, which is characterized by a large number of multipath components. This processing step requires the estimation of a set of spectral components for the received signal, without being able to adopt usual sampling techniques, because of the extremely high Nyquist limit (several GHz).In this thesis, we propose new low-complexity approaches for the UWB channel estimation, relying on the sparse representation of the received signal, the compressed sampling theory, and the reconstruction of the signals with finite rate of innovation. The complexity reduction thus obtained makes it possible to significantly reduce the IR-UWB receiver cost and consumption. First, two existent compressed sampling schemes, single-channel (SoS) and multi-channel (MCMW), are extended to the case of UWB signals having a bandpass spectrum, by taking into account realistic implementation constraints. These schemes allow the acquisition of the spectral coefficients of the received signal at very low sampling frequencies, which are not related anymore to the signal bandwidth, but only to the number of UWB channel multipath components. The efficiency of the proposed approaches is demonstrated through two applications: UWB channel estimation for low complexity coherent Rake receivers, and precise indoor localization for personal assistance and home care.Furthermore, in order to reduce the complexity of the MCMW approach in terms of the number of channels required for UWB channel estimation, we propose a reduced number of channel architecture by increasing the number of transmitted pilot pulses. The same approach is proven to be also useful for reducing the sampling frequency associated to the MCMW scheme.Another important objective of this thesis is the performance optimization for the proposed approaches. Although the acquisition of consecutive spectral coefficients allows a simple implementation of the MCMW scheme, we demonstrate that it not results in the best performance of the reconstruction algorithms. We then propose to rely on the coherence of the measurement matrix to find the optimal set of spectral coefficients maximizing the signal reconstruction performance, as well as a constrained suboptimal set, where the positions of the spectral coefficients are structured so as to facilitate the design of the MCMW scheme. Finally, the approaches proposed in this thesis are experimentally validated using the UWB equipment of Lab-STICC CNRS UMR 6285
Styles APA, Harvard, Vancouver, ISO, etc.
39

Vincent, Bruno. « Investigation fonctionnelle et structurale des mécanismes d'activation ou de régulation de RCPGs opiacés basée sur une approche par fragments ». Toulouse 3, 2008. http://www.theses.fr/2008TOU30251.

Texte intégral
Résumé :
Les récepteurs aux opiacés (MOP, DOP, KOP, NOP) sont des Récepteurs Couplés aux Protéines G (RCPG) impliqués dans les processus d'analgésie, ainsi que dans les phénomènes de tolérance et dépendance. Les mécanismes moléculaires conduisant à l'activation des récepteurs ainsi qu'à leur régulation sont encore peu compris. Une approche par fragment a été utilisée pour contourner les difficultés techniques inhérentes à l'étude des protéines membranaires. La liaison de la boucle extracellulaire 2 (EC2) du récepteur NOP avec le ligand opioïde naturel du récepteur, la nociceptine (Noc), a été étudiée par mesure d'intensité de fluorescence et spectroscopie RMN. Les résultats précisent le rôle de la boucle EC2 dans la liaison de la nociceptine et indiquent une implication de la partie message opioïde. L'extrémité C-terminale du récepteur MOP (352-398) a été surexprimée dans E. Coli et purifiée. Cet outil nous a permis de réaliser des expériences de phosphorylations in vitro par les protéines kinases A et C (PKA et PKC respectivement) suivies d'une identification par spectrométrie de masse (MS). Cette approche biochimique directe démontre que la Ser363 et la Ser375 sont deux sites de phosphorylations chacun spécifique d'une des deux kinases. La recherche des partenaires protéiques de l'extrémité C-terminale du récepteur MOP a été effectuée. Les méthodes de protéomique employées sont discutées au vu des résultats. Finalement, la caractérisation structurale par RMN en solution de cette extrémité C-terminale a permis d'établir l'existence de deux domaines structurés en hélice a ouvrant des perspectives d'études d'interactions protéine-protéine
The opiate receptors (MOP, DOP, KOP, NOP) belong to the G Protein Coupled Receptor (RCPG). They are implicated in the effects of analgesia and tolerance and all dependent phenomena associated with. The molecular mechanisms for their activation signal transduction and regulation are still under investigation. During my thesis, an approach by fragment was used to pass through the difficulties lie on the intrinsic properties of the membrane proteins. The extracellular loop 2 (EC2) plays a crucial role for the specificity of recognition with its ligand the Nociceptin. Using mimicking peptidic fragments, the interaction of EC2- Nociceptin was studied by fluorescence and NMR spectroscopy. The results obtained allow us to specify the interaction between ligand and extracellular loop and prove the importance of the message part of the Nociceptin. The C-terminal part of the GPCR is implicated in the regulation phenomena that occur during the physiological process. The C-terminal peptide of MOP receptor (352-398) was expressed in E. Coli and purified. MOP fragments in fusion with the GST were used for GST or Histidines pulldown experiments to find new partner proteins. Biochemical studies of this peptidic fragment allowed us to identify two phosphorylation sites (Ser363 and Ser375), respectively specific of both PKC and PKA. Moreover, structural biology made essentially by NMR spectroscopy showed us two alpha helices domains surrounding crucial phosphorylation sites
Styles APA, Harvard, Vancouver, ISO, etc.
40

Cragnolini, Tristan. « Prédire la structure des ARN et la flexibilité des ARN par des simulations basées sur des modèles gros grains ». Paris 7, 2014. http://www.theses.fr/2014PA077163.

Texte intégral
Résumé :
JContrairement aux protéines, il y a relativement peu d'études expérimentales et computationelles concernant les ARN. Ceci est sans doute amené à changer, cependant, du fait de la découverte que les molécules d'ARN remplissent une considérable diversité de rôles biologiques, incluant, en dehors des rôles dans la transcription et la translation, des fonctions enzymatiques et régulationelles. Malgré la simplicité de son alphabet de quatre lettres, les ARN peuvent adopter une grande variété de structures tertiaires, dont les ensembles conformationels dynamiques semblent essentiels pour comprendre leur fonction. Malgré des progrès expérimentaux constants, et des développements théoriques, la séparation entre séquence et structures 3D augmente, et notre connaissance de la flexibilité des ARN à une échelle atomique est toujours limitée. Dans cette thèse, je présente des améliorations au modèle HiRE-RNA, et des simulations de repliement réalisées avec celui-ci. Après une présentation des méthodes computationelles utilisées pour échantillonner les surfaces d'énergie des ARN et des méthodes expérimentales fournissant des informations sur la structure des ARN, je présente les topologies d'ARN et les données structurales utilisées pour améliorer le modèle et pour étudier le repliement d'ARN. Les améliorations d'HiRE-RNA dans la version 2 et la version 3 sont décrites, ainsi que les simulations réalisées avec chaque version du modèle
In contrast to proteins, there are relatively few experimental and computational studies on RNAs. This is likely to change, however, due to the discovery that RNA molecules fulfil a considerable diversity of biological tasks, including, aside from its encoding and translational activity, also enzymatic and regulatory functions. Despite the simplicity of its four-letter alphabet, RNAs are able to fold into a wide variety of tertiary structures where dynamic conformational ensembles appear also to be essential for understanding their functions. In spite of constant experimental efforts and theoretical developments, the gap between sequences and 3D structures is increasing, and our lmowledge of RNA flexibility is still limited at an atomic level of detail. In this thesis, I present improvements to the HiRE-RNA model, and folding simulations that were performed with it. After presenting the computational methods used to sample the energy landscapes of RNA and the experimental methods providing information about RNA structures, I present the RNA topologies and the structural data I used to improve the model, and to study RNA folding. The improvements of HiRE-RNA in version 2 and version 3 are then described, as well as the simulations performed with each version of the model
Styles APA, Harvard, Vancouver, ISO, etc.
41

Tataie, Laila. « Méthodes simplifiées basées sur une approche quasi-statique pour l'évaluation de la vulnérabilité des ouvrages soumis à des excitations sismiques ». Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708575.

Texte intégral
Résumé :
Dans le cadre de la protection du bâti face au risque sismique, les techniques d'analyse simplifiées, basées sur des calculs quasi-statiques en poussée progressive, se sont fortement développées au cours des deux dernières décennies. Le travail de thèse a pour objectif d'optimiser une stratégie d'analyse simplifiée proposée par Chopra et al. (2001) et adoptée par les normes américaines FEMA 273. Il s'agit d'une analyse modale non linéaire découplée, dénommée par les auteurs UMRHA qui se caractérisent principalement par : des calculs de type pushover selon les modes de vibration dominants de la structure, la création de modèles à un degré de liberté non linéaire à partir des courbes de pushover, puis le calcul de la réponse temporelle de la structure en recombinant les réponses temporelles associées à chaque mode de vibration. Dans ce travail, la méthode UMRHA a été améliorée en investiguant les points suivants. Tout d'abord, plusieurs modèles à un degré de liberté non linéaire déduits des courbes de pushover modal sont proposés afin d'enrichir la méthode UMRHA originelle qui emploie un simple modèle élasto-plastique : autres modèles élasto-plastiques avec des courbes enveloppes différentes, le modèle de Takeda prenant en compte un comportement hystérétique propre aux structures sous séismes, et enfin, un modèle simplifié basé sur la dégradation de fréquence en fonction d'un indicateur de dommage. Ce dernier modèle à un degré de liberté privilégie la vision de la chute de fréquence au cours du processus d'endommagement de la structure par rapport à une description réaliste des boucles d'hystérésis. La réponse totale de la structure est obtenue en sommant les contributions non linéaires des modes dominants aux contributions linéaires des modes non dominants. Enfin, la dégradation des déformées modales, due à l'endommagement subi par la structure au cours de la sollicitation sismique, est prise en compte dans la méthode M-UMRHA proposée dans ce travail, en généralisant le concept précédent de dégradation des fréquences modales en fonction d'un indicateur de dommage : la déformée modale devient elle-aussi dépendante d'un indicateur de dommage, le déplacement maximum en tête de l'ouvrage ; l'évolution de la déformée modale en fonction de cet indicateur est directement identifiée à partir des calculs de pushover modal. La pertinence de la nouvelle méthode M-UMRHA est investiguée pour plusieurs types de structures, en adoptant des modélisations éprouvées dans le cadre de la simulation des structures sous séismes : portique en béton armé modélisé par des éléments multifibres pour le béton et les armatures, remplissage en maçonnerie avec des éléments barres diagonales résistant uniquement en compression, bâti existant contreventé (Hôtel de Ville de Grenoble) avec des approches coques multicouches. Les résultats obtenus par la méthode simplifiée proposée sont comparés aux résultats de référence issus de l'analyse temporelle non linéaire dynamique.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Nguyen, Quang Thuan. « Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle ». Thesis, Metz, 2010. http://www.theses.fr/2010METZ037S/document.

Texte intégral
Résumé :
Cette thèse développe les deux approches locales et globales basées sur la programmation DC et DCA pour l'optimisation combinatoire en variables mixtes 0-1 et leurs applications à la résolution de nombreux problèmes en planification opérationnelle. Plus particulièrement, cette thèse adresse à: l'amélioration de l'algorithme d'approximation extérieure basée sur DCA (appelé DCACUT) introduit par Nguyen V.V. et Le Thi pour la programmation linéaire en variables mixtes 0-1, les combinaisons des algorithmes globaux et DCA et l'étude numérique comparative de ces approches pour la programmation linéaire en variables mixtes 0-1, l'utilisation de DCA à la résolution de la programmation DC en variables mixtes 0-1 en utilisant la pénalité exacte, la mise en œuvre des algorithmes développés à la résolution des problèmes de grande taille en planification opérationnelle comme les problèmes dans le réseau de télécommunication sans fils, les problèmes d’ordonnancement ainsi que le problème d'affectation de tâches des véhicules aériens non pilotés ou bien le problème des tournées de véhicules dans une chaîne d'approvisionnement
This thesis develops two local and global approaches based on DC programming and DCA for mixed 0-1 combinatorial optimization and their applications to many problems in operational planning. More particularly, this thesis consists of: the improvement of the outer approximation algorithm based on DCA (called DCACUT) introduced by Nguyen V.V and Le Thi for mixed 0-1 linear programming, the combinations of global algorithms and DCA and the comparative numerical study of these approaches for mixed 0-1 linear programming, the use of DCA for solving mixed 0-1 programming via an exact penalty technique, the implementation of the algorithms developed for solving large scale problems in operational planning: two problems in wireless telecommunication network, two scheduling problems, an UAV task assignment problem and an inventory routing problem in supply chains
Styles APA, Harvard, Vancouver, ISO, etc.
43

Nguyen, Quang Thuan. « Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle ». Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ037S.

Texte intégral
Résumé :
Cette thèse développe les deux approches locales et globales basées sur la programmation DC et DCA pour l'optimisation combinatoire en variables mixtes 0-1 et leurs applications à la résolution de nombreux problèmes en planification opérationnelle. Plus particulièrement, cette thèse adresse à: l'amélioration de l'algorithme d'approximation extérieure basée sur DCA (appelé DCACUT) introduit par Nguyen V.V. et Le Thi pour la programmation linéaire en variables mixtes 0-1, les combinaisons des algorithmes globaux et DCA et l'étude numérique comparative de ces approches pour la programmation linéaire en variables mixtes 0-1, l'utilisation de DCA à la résolution de la programmation DC en variables mixtes 0-1 en utilisant la pénalité exacte, la mise en œuvre des algorithmes développés à la résolution des problèmes de grande taille en planification opérationnelle comme les problèmes dans le réseau de télécommunication sans fils, les problèmes d’ordonnancement ainsi que le problème d'affectation de tâches des véhicules aériens non pilotés ou bien le problème des tournées de véhicules dans une chaîne d'approvisionnement
This thesis develops two local and global approaches based on DC programming and DCA for mixed 0-1 combinatorial optimization and their applications to many problems in operational planning. More particularly, this thesis consists of: the improvement of the outer approximation algorithm based on DCA (called DCACUT) introduced by Nguyen V.V and Le Thi for mixed 0-1 linear programming, the combinations of global algorithms and DCA and the comparative numerical study of these approaches for mixed 0-1 linear programming, the use of DCA for solving mixed 0-1 programming via an exact penalty technique, the implementation of the algorithms developed for solving large scale problems in operational planning: two problems in wireless telecommunication network, two scheduling problems, an UAV task assignment problem and an inventory routing problem in supply chains
Styles APA, Harvard, Vancouver, ISO, etc.
44

Ahmad, Alexandre. « Animation de structures déformables et modélisation des interactions avec un fluide basées sur des modèles physiques ». Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/4f73d6f8-b8f0-4794-924b-8f827db44689/blobholder:0/2007LIMO4046.pdf.

Texte intégral
Résumé :
Je présente dans cette thèse des travaux concernant la simulation d'interactions entre un fluide et des membranes déformables. Ce sujet ne manque pas d'applications puisque l'interaction d'un fluide avec des feuilles, des tissus ou même des nageoires de poisson est un scénario courant. Pourtant, peu de travaux en synthèse d'images se sont intéressés à reproduire ce phénomène. Pour ce faire, je propose un algorithme de réaction de contacts entre un fluide Lagrangien et une membrane déformable qui est indépendant du pas d'intégration temporelle. Afin de pallier les artefacts visuels dus à des triangles, issus du processus d'extraction de surface du fluide, qui passent au travers de la membrane lors d'interactions, je présente une technique qui projette la portion de volume erronée le long de la membrane. De plus, une paramétrisation intuitive de coefficients hétérogènes de friction sur une surface est exposée. Je présente également deux modèles d'optimisation. Le premier modèle propose de filtrer les vitesses de particules calculées par une méthode explicite afin de réduire la forte contrainte sur le pas d'intégration temporelle. Des analyses fréquentielles permettent de quantifier cette réduction. Le deuxième modèle est une structure de subdivision spatiale dynamique qui détermine efficacement le voisinage d'un point et d'un triangle. Cette structure a pour but de réduire les temps de calculs des processus de détermination du voisinage pour les fluides Lagrangiens, mais aussi ceux de la détection de collisions et enfin ceux de l'extraction de surface
The presented works' main focus is the interaction of liquids and thin shells, such as sheets of paper, fish fins and even clothes. Even though such interactions is an every day scenario, few research work in the computer graphics community have investigated this phenomenon. Thereby, I propose an algorithm which resolves contacts between Lagrangian fluids and deformable thin shells. Visual artefacts may appear during the surface extraction procedure due to the proximity of the fluids and the shells. Thus, to avoid such artefacts, I propose a visibility algorithm which projects the undesired overlapping volume of liquid onto the thin shells' surface. In addition, an intuitive parametrisation model for the definition of heterogeneous friction coefficients on a surface is presented. I also propose two optimisation methods. The first one reduces the well-known dependency of numerical stability and the timestep when using explicit schemes by filtering particles' velocities. This reduction is quantified with the use of frequency analysis. The second optimisation method is a unified dynamic spatial acceleration model, composed of a hierarchical hash table data structure, that speeds up the particle neighbourhood query and the collision broad phase. The proposed unified model is besides used to efficiently prune unnecessary computations during the surface extraction procedure
Styles APA, Harvard, Vancouver, ISO, etc.
45

Zhu, Chaobin. « Rôle du facteur de croissance IGF-1 (Insulin-Like Growth Factor-1) sur la progression tumorale invasive et métastatique du mélanome : approches anti-tumorales basées sur l'inhibition du facteur IGF-1 ». Thesis, Paris 11, 2015. http://www.theses.fr/2015PA11T012.

Texte intégral
Résumé :
Parmi les cancers cutanés, le mélanome métastatique est le moins fréquent (5 à 7%) mais le plus meurtrier par sa forte résistante aux thérapies conventionnelles. Bien qu'immunogène, aucun traitement efficace n'existe actuellement pour traiter ce cancer, ce qui fait qu'il est urgent de trouver de nouvelles cibles thérapeutiques. Dans ce contexte, nous avons évalué si l'Insulin-Like Growth Factor-1 (IGF-1) pouvait représenter une cible d'intérêt thérapeutique dans le mélanome en inhibant l'expression du facteur IGF-1, à l'aide d'un épisome antisens, dans deux modèles cellulaires : des cellules de mélanome primaire B16-F0 et métastatique B16-F10 (cellules appelées B16-F0mod et B16-F10mod lorsque l'expression d’IGF-1 est inhibée).Dans des modèles expérimentaux in vivo, nos résultats montrent que la réduction d'expression d'IGF-1 induit une diminution de la tumorigénicité des cellules de mélanome, en générant des tumeurs sous-cutanées plus petites (B16-F0 et B16-F10 dans les souris C57BL/6) et en inhibant totalement (souris C57BL/6) ou fortement (souris NSG) la capacité des B16-F10 à former des métastases pulmonaires. Nous avons cherché à comprendre si cette perte de tumorigénicité, suite à l'inhibition du facteur IGF-1, était due à une modification de l'immunogénicité/antigénicité des cellules tumorales et/ou à une modification du potentiel tumorigène intrinsèque des cellules tumorales métastatiques.1/ L’immunisation de souris C57BL/6 à l'aide de cellules B16-F0mod induit la formation d’effecteurs humoraux lytiques en présence de complément dirigés contre la lignée parentale, mais également d’effecteurs cellulaires CD8+ capables d’induire la lyse des cellules tumorales in vitro et d’inhiber la croissance tumorale in vivo. Bien que l'analyse des voies humorale et cellulaire n'ait pas permis de démontrer les mécanismes IGF-1-dépendants mis en jeu avec les cellules B16-F10, l'immunisation des souris C57BL/6 à l'aide de cellules B16- F0mod conduit à une inhibition de la croissance des tumeurs sous-cutanées et du nombre de métastases pulmonaires, confirmant l'implication du facteur IGF-1 dans des mécanismes d'échappement tumoral au système immunitaire.2/ Nos résultats montrent par ailleurs que le facteur IGF-1 joue un rôle direct sur le potentiel tumorigène intrinsèque des cellules tumorales. Outre son action sur la prolifération des cellules tumorales, IGF-1 est impliqué dans le processus de transition épithélio-mésenchymateuse (augmentation des marqueurs N-cadhérine, vimentine, CD44 et CD29), favorisant le maintien de populations tumorales présentant un caractère souche (Sox2, Oct3/4, CD44, CD24, activité ALDH, side population, capacité à former des sphéroïdes). Par ce mécanisme, IGF-1 favorise à la fois les propriétés migratoires et d'efflux de drogues, comme la mitoxantrone, par les transporteurs ABC, qui explique en partie la forte résistance des mélanomes aux thérapies conventionnelles.Ces travaux montrent que l’inhibition de la voie IGF1/IGF1-R pourrait être une bonne stratégie pour le développement de traitements anti-tumoraux contre le mélanome. Outre le développement de stratégies d'immunothérapie, le blocage de la voie IGF-1 permettrait également de sensibiliser les cellules de mélanome aux traitements conventionnels et de diminuer le potentiel métastatique des cellules tumorales
Metastatic melanoma is the least common (5-7 %), but is responsible for most skin cancer deaths by its strong resistance to conventional anti-cancer treatments. Although immunogen, no effective treatment currently exists against this aggressive form, making urgent to find new therapeutic targets. In this context, we assessed whether the Insulin-like Growth Factor-1 (IGF-1) could represent a target of therapeutic interest in melanoma inhibiting the expression of IGF-1 by means of an episome-based vector encoding antisense IGF-1, in two cellular models: primary melanoma cells B16-F0 and metastatic B16-F10 (designated B16-F0mod and B16-F10mod when IGF-1 expression is inhibited).In experimental models in vivo, our results show that the reduction of IGF-1 expression induced a decrease of the melanoma cells tumorigenicity, generating smaller tumors under the skin (B16-F0 and B16-F10 in the C57BL/6 mice) and inhibiting totally (C57BL/6) or strongly (NSG mice) the developpment of B16-F10 lung metastases. We sought to understand whether this loss of tumorigenicity, following IGF-1 inhibition, was due to a change of immunogenicity/antigenicity of tumor cells and/or to intrinsic tumorigenic potential modification of metastatic tumor cells.1 / Immunization of mice C57BL/6 mice with B16-F0mod cells induces the formation of humoral lytic effectors in the presence of complement against the parental line, but also CD8+ effector cells capable of inducing tumor cells lysis in vitro and inhibiting tumor growth in vivo. Although the analysis of humoral and cellular pathways did not demonstrate IGF-1- dependent mechanisms involved in B16-F10 cells, immunization of C57BL/6 mice with B16 cells F0mod leads to skin tumor growth inhibition and a reduction in pulmonary metastases number, confirming the involvement of IGF-1 factor in tumor escape mechanisms of the immune system.2 / Our results also show that IGF-1 plays a direct role in the intrinsic tumorigenic potential of tumor cells. In addition to its effect on tumor cells proliferation, IGF-1 is involved in epithelial-mesenchymal transition (increased N-cadherin, vimentin, CD44 and CD29 markers), promoting the maintenance of tumor populations with stemness properties (Sox2, Oct3/4, CD44, CD24, ALDH activity side-population and ability to form spheroids). By this mechanism, IGF-1 promotes both migration properties and drugs efflux such as mitoxantrone, via ABC transporters, which partly explains the strong resistance of melanoma to conventional therapies.This work shows that the inhibition of IGF1/IGF1-R pathway might be a good strategy for the development of anti-tumor treatments against melanoma. In addition to developing immunotherapy strategies, blocking the IGF-1 pathway would also sensitize melanoma cells to conventional therapy and decrease the metastatic potential of tumor cells
Styles APA, Harvard, Vancouver, ISO, etc.
46

Martiny, Virginie. « Vers la prédiction des propriétés ADME-Tox des molécules à visée thérapeutique par une approche basée sur la structure des enzymes du métabolisme ». Paris 7, 2013. http://www.theses.fr/2013PA077175.

Texte intégral
Résumé :
Lors de la conception de médicaments, prédire les propriétés d'Absorption, Distribution, Métabolisme, Excrétion, Toxicité (ADME-Tox) des molécules à visée thérapeutique permet d'éliminer celles qui ne seraient pas de bons candidats-médicaments. Les enzymes du métabolisme sont capables de modifier les propriétés ADME-Tox des molécules avec lesquelles elles interagissent ou sont impliquées dans des interactions médicamenteuses. Ainsi, les cytochromes P450 (CYPs) et les sulfotransférases (SULTs) sont des enzymes du métabolisme catalysant respectivement des réactions d'oxydation et de sulfoconjugaison de certains xénobiotiques, pouvant conduire à une modification de leurs propriétés ADME-Tox, allant jusqu'à les rendre texiques pour l'organisme. L'objectif de cette thèse était de prédire, par des méthodes in silico basées sur la structure 3D de protéines, l'interaction de molécules à visée thérapeutique, avec les CYPs et les SULTs. Dans ce but, nous avons développé une approche basée sur des méthodes de type docking/scoring en prenant en compte la flexibilité importante du site actif de ces enzymes par simulations de dynamique moléculaire (DM). Dans le cadre de l'applicatibn du protocole sur les CYPs, nous avons pu identifier trois structures issues de DM qui combinées arrivent à bien discriminer les molécules actives, connues pour interagir avec ces enzymes, des molécules inactives. Concernant l'application du protocole sur les SULTs, nous sommes allés plus loin, en utilisant les résultats de docking/scoring pour créer des modèles QSAR et avons également pu identifier des structures issues de DM, discriminant les molécules actives des molécules inactives. A terme, ce protocole devrait être mis gratuitement à disposition de la communauté scientifique pour pouvoir prédire les interactions de ses propres molécules d'intérêt avec les CYPs et les SULTs
Predicting ADME-Tox (Absorption, Distribution, Metabolism, Excretion and Toxicity) properties of drug candidates early in drug discovery process is critical to detect compounds with undesirable drug-like profile. Drug metabolizing enzymes are capable to modify compounds by interacting with them or can be involved in drug¬drug interactions. Cytochromes P450 (CYPs) and sulfotransferases (SULTs) are key drug metabolizing enzymes catalyzing oxidation and sulfoconjugation, respectively, leading to a possible modification of ADME-Tox properties of compounds, and in some cases to toxicity. The goal of this PhD study was to predict interactions of drug candidates with CYPs and SULTs, using in silico structure-based methods. We thus developed an approach based on docking/scoring methodology that considered the important flexibility of their active site by using molecular dynamic simulations (MD). When applied on CYPs, our protocol identified three MD-derived structures successfully discriminating active and inactive compounds. Regarding SULTs, we also identified several MD-derived structures able to correctly discriminate active and inactive compounds. In addition, we incorporated docking/scoring results of SULTs to create QSAR models. We anticipate to make our approach freely accessible to the scientific community to be able to predict interactions of their compounds of interest with CYPs and SULTs
Styles APA, Harvard, Vancouver, ISO, etc.
47

Hoareau, Violette. « Etudes des mécanismes de maintien en mémoire de travail chez les personnes jeunes et âgées : approches computationnelle et comportementale basées sur les modèles TBRS* et SOB-CS ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS050/document.

Texte intégral
Résumé :
La mémoire de travail est un système cognitif essentiel à notre vie quotidienne. Elle nous permet de conserver momentanément des informations dans le but de réaliser une tâche cognitive. Une des caractéristiques principales de ce type de mémoire est d’être limitée en capacité. Les raisons de cette limitation sont largement débattues dans la littérature. Certains modèles considèrent qu'une cause principale de l'oubli en mémoire de travail est l'existence d'un déclin temporel passif de l'activation des représentations mnésiques alors que d'autres modèles supposent que les interférences entre les informations suffisent à expliquer la capacité limitée de cette mémoire. Deux modèles computationnels ont été proposés récemment (TBRS* et SOB-CS) et illustrent parfaitement ce débat. En effet, ils décrivent de manière très différente ce qui se passe au cours d’une tâche de mémoire de travail impliquant à la fois la mémorisation et le traitement d’informations. En plus de s'opposer sur les causes de l’oubli, ils proposent des processus de maintien en mémoire de travail distincts : le rafraîchissement des informations pertinentes selon TBRS* versus la suppression des informations non pertinentes selon SOB-CS. Les travaux de cette thèse se sont organisés autour de deux objectifs principaux. Premièrement, cette thèse a porté sur l’étude de ces deux modèles et leur mécanisme de maintien. Pour cela, nous avons réalisé des expériences comportementales utilisant la tâche d’empan complexe afin de tester des hypothèses précises de ces modèles. Deuxièmement, nous avons étudié, à l'aide des modèles computationnels, les causes des déficits de mémoire de travail observés chez les personnes âgées, dans le but, à long terme, de créer ou d'améliorer les outils de remédiation. Concernant le premier objectif, les différents résultats d’études ont montré une discordance entre le comportement humain et les simulations. En effet, TBRS* et SOB-CS ne permettent pas de reproduire un effet positif du nombre de distracteurs contrairement à ce qui a été observé expérimentalement. Nous proposons que cet effet positif, non prédit par les modèles, est relié à la mémorisation à long terme non prise en compte dans ces deux modèles. Concernant le deuxième objectif, les résultats comportementaux suggèrent que les personnes âgées auraient principalement des difficultés à rafraîchir les traces mnésiques et à stabiliser les informations à long terme au cours d’une tâche d’empan complexe. Dans l’ensemble, les résultats de cette thèse suggèrent d'approfondir les recherches concernant les liens entre les mécanismes de maintien en mémoire de travail et la mémorisation à long terme, par exemple en proposant un nouveau modèle computationnel permettant de rendre compte de nos résultats. Au-delà des avancées concernant la compréhension du fonctionnement de la mémoire de travail, cette thèse montre également que l’utilisation de modèles computationnels revêt un caractère particulièrement pertinent pour l'étude d'une théorie ainsi que pour la comparaison de différentes populations
Working memory is a cognitive system essential to our daily life. It allows us to temporarily store information in order to perform a cognitive task. One of the main features of this type of memory is to be limited in capacity. The reasons for this limitation are widely debated in the literature. Some models consider that a main cause of forgetting in working memory is the existence of a passive temporal decay in the activation of memory representations whereas other models assume that interference between information are sufficient to explain the limited capacity of this memory. Two computational models have recently been proposed (TBRS* and SOB-CS) and they perfectly illustrate this debate. Indeed, they both describe differently what happens during a working memory task involving both storage and information processing. In addition to opposing the causes of forgetting, they propose separate maintenance processes: refreshing relevant information according to TBRS* versus removing irrelevant information according to SOB-CS. This thesis was organized around two main objectives. First, we focused on the study of these two models and their maintenance mechanisms. To do so, we performed behavioral experiments using the complex span task to test specific hypotheses of these models. Second, using computational models, we investigated the causes of working memory deficits observed in the elderly, with the aim, in the long term, of creating or improving remediation tools. Regarding the first objective, results showed a discrepancy between human behavior and simulations. Indeed, TBRS* and SOB-CS did not reproduce a positive effect of the number of distractors contrary to what has been observed experimentally. We propose that this positive effect, not predicted by the models, is related to the long-term storage not taken into account in these two models. Regarding the second objective, the behavioral results suggest that older people would have difficulty mainly in refreshing memory traces and in stabilizing information in the long term during a complex task. Overall, the results of this thesis suggest to deepen the research on the links between the maintenance mechanisms and the long-term storage, for example by proposing a new computational model accounting for our results. Beyond advances in understanding the functioning of working memory, this thesis also shows that the use of computational models is of particular relevance for the study of a theory as well as for the comparison of different populations
Styles APA, Harvard, Vancouver, ISO, etc.
48

Sourty, Raphael. « Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation ». Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Texte intégral
Résumé :
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
Styles APA, Harvard, Vancouver, ISO, etc.
49

Malinenko, Alla. « Effet d’ion specifique sur l’auto-assemblage d’amphiphiles cationiques : des approches experimentale et informatique ». Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0065/document.

Texte intégral
Résumé :
La présente étude est une approche holistique axée sur l'étude des effets spécifiques d'ions sur les propriétés d'auto-assemblage de tensioactifs cationiques gemini. Notre objectif principal étant l’étude de l'effet de divers contre-ions sur les caractéristiques d’auto-assemblage de tensioactifs cationiques en solution aqueuse. Afin d'obtenir une vision plus complète de l'effet des interactions ioniques et moléculaires à l’interface sur les propriétés globales, nous avons utilisé des approches différentes. Nous avons combiné une étude expérimentale portant sur les propriétés en solution (concentration micellaire critique, degré d'ionisation, nombre d'agrégation, etc.), avec des approches centrées sur l'étude des propriétés micellaires interfaciales en analysant les concentrations des contre-ions et de l'eau de façon expérimentale (piégeage chimique) et informatique (simulations de dynamique moléculaire). En outre, nous avons étudié l'impact de la nature des contre-ions sur la croissance des micelles géantes par rhéologie. En plus de l'examen des propriétés de tensio-actifs en solution, les effets spécifiques d'ions sur les structures cristallines des agents tensioactifs gémini ont été étudiés.Nous avons trouvé que les effets d'ions spécifiques qui déterminent le comportement des agrégats micellaires de gemini cationiques d'ammonium quaternaire dans des solutions aqueuses dépendent fortement de l'énergie libre d'hydratation des contre-ions, en d'autres termes, sur leur propriétés hydrophile /hydrophobe. Contrairement à la solution aqueuse, dans les cristaux, la taille de l'ion devient le facteur déterminant. La comparaison des résultats obtenus pour un même système en solution aqueuse et à l'état solide a montré l'importance des interactions ion-eau dans les effets spécifiques d'ions. Cependant, il faut noter que les propriétés du substrat (les gemini dans notre cas) doivent être prises en compte non moins soigneusement afin de prédire complétement les effets Hofmeister
The present study is a holistic approach focused on the investigation of ion specific effects on the self-assembly properties of cationic gemini surfactants. Our main focus was on the effect of various counterions on the self-organization features of cationic surfactants in aqueous solution. In order to obtain amore comprehensive understanding of the effect of interfacial ionic and molecular interactions on aggregate properties we used different approaches. We combined an experimental study focused on the bulk solution properties (critical micelle concentration, ionization degree, aggregation number, etc.), with approaches focused on investigating the interfacial micellar properties by analyzing the interfacial counterion and waterconcentrations, experimentally (chemical trapping) and computationally (molecular dynamic simulations). Moreover, the impact of counterion nature was investigated by studying the growth of wormlike micelles using rheology. Besides the examination of the surfactants properties in solution, the ion specific effects onthe crystalline structures of gemini surfactants were studied.We found that ion specific effects which determine the behavior of micellar aggregates of cationic quaternary ammonium gemini in aqueous solutions strongly depend on the free energy of hydration of the counterions, in others words, on their hydrophilic/hydrophobic properties. Contrarily to aqueous solution, in crystals, the size of the ion becomes the determining factor. Comparison of the results obtained for the same system in aqueous solution and in solid state showed the importance of ion-water interactions in ion specific effects. However, one should note that the properties of substrate (the gemini in our case) should be taken into account not less carefully in order to fully predict Hofmeister effects
Styles APA, Harvard, Vancouver, ISO, etc.
50

Bensaad, Karim. « Etude des relations structure-fonction du produit du gène suppresseur de tumeur TP53 : une approche basée sur la conservation phylogénétique des membres de la famille p53 ». Paris 5, 2002. http://www.theses.fr/2002PA05N104.

Texte intégral
Résumé :
La protéine p53 joue un rôle clé dans l'intégrité cellulaire. Après stress, elle induit un arrêt du cycle cellulaire ou l'apoptose. Deux approches ont été définies pour étudier les relations structure-fonction de p53. La caractérisation de protéines chiméres p53 humaine/p53 de Xénope a permis d'identifier le domaine central de p53X comme responsable de sa thermosensibilité. Nous avons alors montré que p73 interagit spécifiquement avec les hybrides p53 avec une conformation altérée. Cette association modifie les propriétés biologiques de p73. Ces données permettent de comprendre le phénotype de gain de fonction des mutants p53 dans les cancers humains
P53 is a key protein in the cellular integrity. After a stress, p53 induces a cell cycle arrest or apoptosis. Two approaches have been used to study the relationship between structure and function of p53. I) Characterization of human p53 / Xenopus p53 hybrid proteins enabled the identification of the p53X central domain as responsible for its thermosensitivity. Then, we demonstrated that p53 protein interacts specifically with p53 hybrids with an altered conformation. This interaction leads to p73 loss of activity. These data allow the understanding of the p53 mutants gain-of-function effect in human cancers. Ii) p53 mutants at position 98 (Pro), conserved among p53 in all species but never found mutated in human cancers
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie