Дисертації з теми "Recherche par Méthodes Mixtes"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Recherche par Méthodes Mixtes.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Recherche par Méthodes Mixtes".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Fofana, Fatoumata. "Application des méthodes mixtes dans le cadre de la recherche sur les résultats des interventions de santé : utilisation du schéma mixte par conversion de données qualitatives." Nantes, 2015. http://archive.bu.univ-nantes.fr/pollux/show.action?id=a5b2a8a2-e8ab-4305-b823-1eed68edbbc0.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de la thèse était d'explorer si la recherche par méthodes mixtes, combinant les méthodes qualitatives et quantitatives, peut constituer une approche pertinente dans la recherche sur les résultats des interventions de santé. Une méthodologie spécifique a été appliquée : un schéma mixte par conversion consistant à utiliser des techniques quantitatives sur des données « quantitativées », initialement qualitatives. L'utilisation du schéma mixte par conversion a été illustrée sur deux études qualitatives en se concentrant particulièrement sur la question de la saturation, qui est une notion essentielle de la recherche qualitative appliquée aux patient-reported outcomes. La présente thèse a ainsi démontré que les méthodes mixtes peuvent répondre de manière appropriée aux problématiques liées à la recherche sur les résultats des interventions de santé
The objective of the thesis was to explore whether mixed methods research, combining qualitative and quantitative methods, can constitute a pertinent approach in outcomes research. A specific methodology was followed: a conversion mixed design, consisting in using quantitative techniques on quantititized data, initially qualitative. The use of a conversion mixed design was illustrated on two qualitative studies, focusing particularly on the saturation question, which is a central notion in qualitative patient-reported outcomes research. The present thesis showed that mixed methods can address the challenges in outcomes research appropriately
2

Cartron, Emmanuelle. "Quelle place pour la décision médicale partagée en contexte de transplantation rénale ? : une recherche par méthodes mixtes sur l’expérience vécue par les patients." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT1018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En dehors de la transplantation rénale qui est reconnu comme le meilleur traitement de l’insuffisance rénale terminale, plusieurs modalités de suppléance sont possibles quand la maladie évolue. Le processus de décision médicale partagée entre le patient et les professionnels de santé est recommandé par les autorités au stade terminal de la maladie rénale. Comment, dans ce contexte de parcours de soin qui rassemble des recommandations à soutenir le patient lors de ce choix, et des connaissances scientifiques qui démontrent une supériorité de la greffe sur les autres traitements, le patient prend-il part à la décision d’être greffé ? Cette recherche vise à explorer l’expérience des patients et les facteurs qui l’influencent en situation de décision, ainsi que d’évaluer l’impact de cette expérience sur leur devenir. Elle s’appuie sur deux méthodes mixtes de recherche (QUALI > quanti). Elle allie une analyse phénoménologique interprétative et une étude observationnelle mesurant le conflit décisionnel perçu par les patients en attente de greffe et les facteurs qui influencent le regret décisionnel, la qualité de vie et l’observance après la transplantation. Les résultats rapportent que les patients perçoivent l’inscription sur le fichier comme une étape obligatoire. Par ailleurs cette décision implicite forge le rapport des patients aux autres décisions et influence leur capacité d’adaptation vis-à-vis de l’incertitude inhérente à la maladie rénale chronique. L’enjeu de prendre en compte toutes les étapes de la décision médicale partagée est majeur en contexte de transplantation rénale pour soutenir la participation du patient sur l’ensemble de son parcours de soins
Although kidney transplantation provides a significant benefit over dialysis, question regarding the eligibility for transplantation, the impact of replacement treatment on their lives, make the mode of renal replacement therapy a difficult decision. Therefore, Health Authority suggests shared decision-making to help patients make timely treatment modality decision. Little is known about how patient perceive their participation in the shared decision-making process. This research aims to explore the experience of patients and the factors that influence them in decision-making situations, as well as to evaluate the impact of this experience on their future. This research is based on a mixed methods research (QUANTI > quali). It combines an interpretive phenomenological analysis and an observational study design to measure decisional conflict perceived by patients on the waiting list and to explore the factors that influence decision regret, quality of life and adherence among transplant recipients. This study reports that the experience of waiting list was identified as a necessary step in their pathway. They experienced as an implicit decision that shapes patients' attitudes towards other decisions and influences their ability to cope with the uncertainty of living with chronic kidney disease. The challenge of considering all stages of shared medical decision making is major in the context of kidney transplantation to support patient participation decision
3

Tchapnga, Takoudjou Rodrigue. "Méthodes de modélisation et d'optimisation par recherche à voisinages variables pour le problème de collecte et de livraison avec transbordement." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0052/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La présente thèse se déroule dans le cadre du projet ANR PRODIGE et est axée sur la recherche de stratégies permettant l’optimisation du transport en général et du transport routier de marchandises en particulier. Le problème de transport support de cette étude est le problème de collecte et livraison avec transbordement. Ce problème généralise plusieurs problèmes de transports classiques. Le transbordement y est utilisé comme levier de flexibilité et d’optimisation. Pour analyser et résoudre ce problème, les analyses sont effectuées suivant trois axes : le premier axe concerne l’élaboration d’un modèle analytique plus précisément d’un modèle mathématique en variables mixtes. Ce modèle permet de fournir dessolutions optimales au décisionnaire du transport mais présente l’inconvénient de nécessiter un temps de résolution qui croit exponentiellement avec la taille du problème. Cette limitation est levée par le deuxième axe d’étude qui permet de résoudre le problème de transport étudié par une méthode d’optimisation approchée tout en garantissant des solutions satisfaisantes.La méthode utilisée est une métaheuristique inspirée de la recherche à voisinages variables (VNS). Dans le troisième axe, l’ensemble des résultats obtenus dans la thèse sont testés en situation de transports réels via le projet PRODIGE
The thesis is conducted under the ANR project PRODIGE and it is focused on seeking strategies allowing the optimization of transport in general and road freight transport in particular. The transportation problem support for this study is the pickup and delivery problem with transshipment.This problem generalizes several classical transportation problems.Transshipment is used as optimization and flexibility leverage. To study and solve this problem, analyzes are performed along three axes :the first objective concerns the development of an analytical model, more accurately a mathematical model with mixed variables. This model allows providing optimal solution to the decision maker, but has the disadvantage of requiring a time resolution that grows exponentially with the size of the problem. This limitation is overcome by the second line of the study that solves the transportation problem studied by an approximate optimization method while ensuring satisfactory solutions. The method used is a mataheuristic broadly followed the variables neighborhoods research principles. In the third objective, the overall results obtained in the thesis are tested in real transport situation via the PRODIGE project
4

Brouzes, Chloé. "Quelles stratégies pour améliorer le régime alimentaire de jeunes femmes égyptiennes en milieu urbain ? Analyse des déséquilibres et identification de stratégies nutritionnelles par méthodes mixtes." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASB002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les femmes égyptiennes constituent un exemple caractéristique mais peu étudié de population confrontée à une transition nutritionnelle, caractérisée par une forte prévalence de surpoids (88% en milieu urbain) et de déficience en fer (50%). Cette situation suggère que leurs apports alimentaires, bien que peu évalués et donc méconnus, devraient être rééquilibrés. La modélisation de l’alimentation est une approche mathématique qui permet d’identifier les changements de régimes alimentaires susceptibles d’améliorer les apports nutritionnels en prenant en compte différents paramètres du contexte alimentaire local. Cependant, l’acceptabilité des stratégies nutritionnelles modélisées est difficilement prédictible. Ces travaux de thèse ont permis de quantifier les apports alimentaires et nutritionnels d’une population de femmes égyptiennes résidant en milieu urbain, puis de modéliser des stratégies d’amélioration nutritionnelle. L’acceptabilité des solutions « théoriquement optimales » a ensuite été évaluée par la population d’étude par des enquêtes qualitatives. L’utilisation de méthodes mixtes (approches quantitatives puis qualitatives) a permis une analyse fine de la situation ainsi que l’identification de changements envisageables au niveau des pratiques alimentaires et de l’offre de produits enrichis. Cette approche semble prometteuse pour identifier des solutions réalistes et acceptables afin de contribuer à résoudre des problématiques nutritionnelles locales
Egyptian women are a typical yet rarely studied example of population undergoing a nutrition transition, touched by a high prevalence of overweight (88% in urban areas) and iron deficiency (50%). This situation suggests that their dietary intakes, which are so far poorly assessed and not well known, should be rebalanced. Diet modeling is a mathematical tool which helps to identify dietary changes improving nutritional intakes, taking into consideration several parameters of the local food environment. Yet, the acceptability of the nutritional strategies modeled is hardly predictable. This research thesis enabled to quantify the dietary intakes of young Egyptian women living in urban areas and to model strategies to improve nutritional intakes. The acceptability of the “theoretically optimal” solutions was then discussed with the population studied using qualitative surveys. The use of mixed methodologies (quantitative and then qualitative approaches) enabled to analyze in detail the local situation and to identify changes in dietary practices and in the fortified food offer. This approach seems promising to identify realistic and acceptable solutions to contribute solving local nutritional issues
5

Cadwallader, Jean-Sébastien. "TCA-MG : Prise en charge des patients atteints de troubles des conduites alimentaires par les médecins généralistes français." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Contexte : Les personnes atteintes de troubles des conduites alimentaires (TCA) auraient un meilleur pronostic s’ils étaient pris en charge précocement pour cette maladie. Le médecin généraliste (MG) est souvent cité dans les recommandations internationales comme un acteur principal de dépistage et de prise en charge précoce des patients atteints de TCA. Les études de prévalence effectuées dans un contexte de soins primaires (SP) ne retrouvent pourtant que peu de patients atteints de TCA, voire aucun. Aucune étude de prévalence en MG en France n’a encore été effectuée. La dépression est souvent étudiée comme une comorbidité fréquente des TCA.Objectif : Etudier la place du MG dans la prise en charge des patients atteints de TCA1)Evaluer l’efficacité d’un dépistage systématique des patients atteints de TCA par des MG sur leur pronostic et leur taux de guérison.2)Décrire les caractéristiques des patients atteints de TCA et suivi en MG et d’étudier la temporalité entre la survenue d’une prise en charge pour dépression et prise en charge pour TCA3)Décrire les perceptions des MG et des patients de la place du MG dans la prise en charge de ces patientsMéthodes1)Revue systématique de la littérature selon les critères PRISMA2)Etude de cohorte à partir de la prise en charge en médecine générale de patients atteints de TCA avec analyse de différents groupes de suivi comparant les patients TCA pris en charge pour dépression et ceux non pris en charge pour dépression.3)Etude qualitative en miroir de patients atteints de TCA et de MG sélectionnés dans la cohorte disponible des MG, avec analyse par théorisation ancrée et phénoménologique en miroir, avec double codage d’entretiens semi directifsRésultats : La revue systématique de la littérature n’a pas permis de conclure à l’efficacité d’un dépistage systématique des TCA par les MG, du fait d’une littérature hétérogène, composée en grande majorité d’articles d’opinion dans un contexte de SP.1310 patients (sur 350 000 patients suivis) ont eu au moins une prise en charge pour TCA par des MG de l’OMG entre 1994 et 2007. 80 % étaient des femmes, âgées de 35,19 ans en moyenne. Seuls 39 % avaient une amorce de suivi pour TCA. 67,1 % avaient une première prise en charge pour TCA. 32,3 % d’entre eux avaient eu au moins une fois une prise en charge pour dépression, dont 62,41 % pour la première fois. Les patients ayant une dépression étaient plus âgés, plus suivis pour TCA que les autres. Un cinquième des patients TCA ont eu au moins une fois une prescription d’antidépresseurs dans leur suivi, un peu moins de la moitié des anxiolytiques. La prise en charge pour DEP ne précédait pas la prise en charge du TCA.Dans l’étude qualitative, les 24 MG et les 8 patientes décrivaient la prise en charge comme difficile et longue. L’enjeu d’une bonne prise en charge dépendait d’une relation de confiance des deux acteurs, d’un côté une patiente prête à se livrer en dépassant le déni et le sentiment de honte, de l’autre côté, un médecin prêt à écouter, en dépassant son sentiment d’impuissance.Discussion : Il s’agit de la première étude en France s’intéressant à la prise en charge des patients en SP, utilisant des méthodes complémentaires. Les enjeux de prise en charge des TCA en SP restent à définir. La dépression et les TCA étaient concomitants et semblent devoir être pris en charge dans une approche globale. Cette approche devra tenir compte de situations retrouvées dans les deux syndromes : la mauvaise estime de soi, une image négative de son corps, des antécédents de maltraitance, des antécédents familiaux psychiatriques de dépression ou de TCA au premier degré
Background : People suffering from eating disorders (ED) may have a better prognosis if they benefit from early management for their disease. GPs are often quoted in international guidelines as the main actors of screening and early management of ED patients. Prevalence studies in a primary care setting however find few ED patients and sometimes none. No study in GP has been done in France. Depressive disorders are often related as a comorbidity of ED. Aim: to study the GP role of ED patients management. 1) To evaluate the efficacy of systematic screening of ED patients conducted by GPs on prognosis and recovery. 2) To describe the characteristics of ED patients followed by their GPs and study the temporality between depression management and ED management. 3) To describe GPs and patients' views of the role of GPs management of ED patients. Methods 1)Systematic review according to PRISMA statement 2)Cohort study in a French GP setting of ED patients with analysis of different follow up groups comparing ED patients with depression to ED patients without depression. 3)Qualitative study of ED patients comparing GPs and patients' views selected in the cohort study, with a grounded theory approach and a phenomenological approach, double coding of semi directive interviews. Results : the systematic review found no evidence of efficacy of systematic screening of ED patients by GPs. The literature is too heterogeneous and contains mainly opinion papers in primary care. 1310 patients (out of 350,000) had at least one consultation for ED by GPs in the French database between 1994 and 2007. 80 % were women, mean age of 35.19 years. Only 39 % benefited from a follow up for ED. 67.1 % were taken in charge for the first time. 32.3 % of ED patients had at least one consultation for depression, 62.41 % for the first time. ED patients with depression were older, followed longer for ED then the others. One fifth of patients had at least one prescription of antidepressants during their follow up period, half of them had anxiolytics. Depression management did not precede ED management. In the qualitative study, 24 GPs and 8 patients described the management as difficult and long. The key to a good management depended on trust, with a patient willing to talk about her disease; overcoming shame and denial, and a GP ready to listen, overcoming his helplessness feeling.Discussion : it was the first study about this subject in France, using complementary methods. Management points are to be defined in primary care. Depression and ED are cofactors and should be managed in a global approach. This approach will have to take into account signs found in those two syndroms: low self esteem, negative body image, abuse background, pscyhiatric diseases in family (depression and ED) in first degree relatives
6

Benhizia, Faten. "OPTIMISATION DU PLAN DE TRANSPORT PAR PLANIFICATION INTEGREE DES RESSOURCES." Thesis, Saint-Etienne, EMSE, 2012. http://www.theses.fr/2012EMSE0668/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La production des circulations ferroviaires a la sncf repose actuellement sur un processus essentiellement sequentiel dans lequel la conception des grilles horaires de circulation (reservation de l'infrastructure pour la circulation des trains de l'offre de transport de la sncf) conditionne largement la conception des planifications des engins ferroviaires (les roulements engins), puis celle des agents de conduite (adc) (les grilles de service des adc). cette strategie de planification sequentielle des ressources ferroviaires a ete massivement adoptee pour des raisons pratiques et scientifiques (historique, savoir-faire, complexite du systeme ferroviaire, etc.). toutefois, cette strategie de planification sequentielle genere des solutions qui peuvent etre de cout eleve et moins robustes aux aleas, car les decisions prises a une etape donnee peuvent reduire considerablement l'ensemble des solutions realisables aux etapes suivantes. face a ce constat et a la forte interaction entre ces trois ressources heterogenes et tres couteuses, la sncf a souhaite investiguer la praticabilite et les apports d'une demarche d'optimisation du plan de transport par planification integree de ces ressources critiques. dans cette optique, les travaux de these ont porte sur l'etude de faisabilite, le prototypage et la validation d'une demarche de planification integree des ressources permettant d'ameliorer l'efficacite globale du plan de transport, d'accroitre la competitivite de la sncf et d'ameliorer la qualite de ses services. nous avons propose une formalisation du probleme de planification integree engins/adc et des algorithmes performants qui s'appuient sur une approche par relaxation lagrangienne pour resoudre de maniere efficace la problematique etudiee. cette approche repose sur l'exploitation de deux briques logicielles developpees a la sncf pour resoudre chacun des sous-problemes de planification des engins et des adc. les algorithmes ont ete testes experimentalement avec des donnees reelles de la region ter bretagne. differentes evolutions des modeles et des algorithmes ont ete etudiees pour rendre ces derniers plus efficaces. les tests de validation sur des jeux de donnees reelles a une echelle industrielle sont encourageants et montrent des gains potentiels allant jusqu'a 4% des adc exploites par rapport a une approche traditionnelle (sequentielle)
The planning of railway production at the french national railways (sncf) is currently based on a mainly sequential process in which the design of railway timetabling widely conditioning design planning of railway equipment (rolling stock), then one of the train drivers (driver rosters). this strategy of sequential planning of railway resources massively adopted for practical and scientific reasons (expertise, complexity of the railway system, etc.). however, this strategy generates solutions which can be more expensive and less robust to uncertainties, because decisions taken at any given stage can significantly reduce the overall feasible solutions of the following steps.given this situation and the strong interaction between these heterogeneous and very expensive resources, the thesis deals with the feasibility and inputs of a process where these critical resources could be planned and optimized in an integrated way. the thesis focuses on the feasibility study, prototyping and validation of an integrated approach for planning rolling stocks and drivers, so as to improve the efficiency of the overall transportation plan, increase sncf competitiveness and enhance the quality of its services. we propose a mixed integer linear programming formulation of the rolling stock/ train drivers integrated planning problem. in this mathematical model, each planning sub-problem is formalized and coupling constraints are further introduced to model the interdependencies of these two resources when they are simultaneously used for train production. in this heuristic, the solution of the lagrangian dual and the calculation of feasible solutions are performed by calling two proprietary software modules available at sncf for planning rolling stocks and train drivers. the heuristic is tested experimentally with real data from the ter bretagne region, and several evolutions are introduced in the models and algorithms so as to improve their performances.validation tests on of real data sets at an industrial scale are encouraging and, when compared to a traditional (sequential) approach, show gain of up to 4% for train drivers used
7

Jamjoom, Bushra. "The determinants of employee engagement on intention to quit in family owned businesses in Saudi Arabia." Electronic Thesis or Diss., Strasbourg, 2018. http://www.theses.fr/2018STRAB015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le secteur privé en Arabie Saoudite connait des taux relativement élevés de turnover, ce qui a un impact négatif sur la performance commerciale, occasionne des pertes en connaissance, chutes des niveaux de productivité, et réduit les chances de survie organisationnelle. Apprendre à impliquer les salariés et construire de la loyauté pour l’entreprise s’avèrera sans nul doute crucial pour les succès futurs sur le marché saoudien.Cette dissertation présente une étude basée sur une méthode mixte séquentielle. La première phase, qualitative (N: 28), visait à explorer les facteurs d’engagement des salariés dans les Entreprises Familiales (EFs) en Arabie Saoudite. Dans la seconde phase, quantitative (N: 151), nous avons utilisé une analyse causale pour évaluer la relation entre d’une part les antécédents proposés de l’engagement des salariés (résultants de la phase qualitative) et d’autre part l’engagement des salariés, pour tous les participants de cette étude. Ensuite, nous avons employé une analyse à groupes multiples afin de tester l’invariance du modèle entre les saoudiens et les non-saoudiens.En complément, nous avons examiné l’influence de l’engagement des salariés sur l’intention de démissionner dans les EFs d’Arabie Saoudite, parmi les saoudiens et les non-saoudiens
Family Owned Businesses (FOB) are at the forefront of the Saudi private sector and account for at least 90 percent, representing 51 percent of the total employment in the nation, hence contributing an income of 232.5 billion Saudi Riyals to the economy. The fortitude of these private enterprises has made family-run businesses one of the major backbones of the Saudi economy. Unfortunately, the Saudi Arabian private sector is observing relatively high labor turnover rates. This, in turn, has negatively impacted business performance, causing loss of knowledge, drops in productivity levels, and reduction of the chance for organizational survival. Therefore, retention and motivation of employees are major concerns for employers and talent management is becoming a key activity. In this context, learning how to engage employees and build loyalty to the organization is likely to be crucial for future success in the Saudi marketplace. The purpose of this Exploratory Sequential Mixed Methods thesis was, first, to identify key determinants of employee engagement within FOBs in Saudi Arabia. Secondly, it intended to test the predictability of the concept of employee engagement quantitatively. Thirdly, it tested the impact of employee engagement on intention to quit for Saudis and non-Saudis in FOBs in Saudi Arabia. The first objective was achieved by semi-structured interviews of full-time employees working for FOBs in Saudi Arabia (N = 28). The second and third objectives were achieved through a survey questionnaire that was developed from twelve pre-tested instruments and was comprised of 84 questions (N = 151). Path analysis, multi-group, and structural equation modeling (SEM) analysis were used along with bootstrapping to examine the variables of interest and mediation effects. Results suggested that a combination of the antecedent variables of this study (i.e., meaningfulness, communication openness, reward, and career growth) predicted employees’ engagement in Saudi FOBs. However, engagement antecedents did not predict engagement for Saudi and non-Saudi employees correspondingly. Meaningfulness, job fit, coworker’s relationship, rewards, and career growth predicted engagement for the Saudi employees. On the other hand, communication openness, and career growth predicted engagement for the non-Saudi/expatriate employeesIn addition, employee engagement had a significant impact on intention to quit for the non-Saudi employees, while it did not have an impact on the Saudi employees in FOBs in Saudi Arabia. Finally, results of the mediation test suggested that employee engagement partially mediated meaningfulness and career growth and intention, and fully mediated communication openness and rewards
8

Prevost, Guillaume. "Modélisation d'écosystèmes multi-niveaux par des systèmes mixtes." Le Havre, 2005. http://www.theses.fr/2005LEHA0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous allons présenter dans ce document un méta-modèle d'écosystème aquatique par des approches mixtes (équationnelles ou individu-centrée). Les écosystèmes sont complexes. Pour cela, notre modèle s'attache à représenter de façon optimale les interactions qui ont lieu à divers niveau d'observation. De plus, nous proposons un méta-modèle holarchique, multi-niveaux et mixte permettant de modéliser tous types de phénomènes suivant la connaissance que l'on en a. De plus, afin de rendre accessible et utilisable ce modèle, nous fournissons une ontologie le décrivant et précisons son utilisation dans ce mémoire. Finalement, nous présentons une plateforme distribuable permettant le calcul des modèles découlant de notre méta-modèle. Puis, nous décrivons des techniques basées sur l'ananlyse du réseau d'interaction de nos simulations permettant de détecter, de réifier et de gérer dynamiquement des organisations émergentes dans des simulations de types proies-prédateurs
We present in that document a meta-model of aquatic ecosystem which is multi-scale and uses hybrid approaches. Ecosystems are complex systems. Therefore, the model is made to give a performant description of multi-level interactions occuring in them. Thus, we propose a multi-scale and multi-level meta-model designed as an holarchy and embodying different approaches (equationnal, individual-based,. . . . ). Moreover, we present an ontology of the meta-model which help users understand and use that one. The methodology to apply the meta-model on a concrete problem using the ontology is shown. Finally, a plateform allowing using to compute their model as far as those ones respect the meta-model assumptions is described. Then, we introduce technics to detect, reify and handle emerging systems during the simulations. Those technics are based on the analysis of the interaction network of predator-preys simulation
9

Kermad, Chafik. "Segmentation d'image: recherche d'une mise en oeuvre automatique par coopération de méthodes." Phd thesis, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00008781.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thématique de recherche dans laquelle s'inscrit cette thèse est celle de la segmentation d'images. Les travaux menés ont permis la conception et le développement d'un système d'analyse adaptable à plusieurs catégories d'images dont les régions peuvent être de nature uniforme et/ou texturée. Un intérêt tout particulier a été accordé à l'aspect automatique et non-supervisé du dispositif. L'architecture du système proposé combine deux concepts. Le premier, fondé sur un procédé d'intégration d'informations issues de différentes méthodes, permet de tirer parti des avantages de chacune d'elles. Le second concept s'inspire de la perception active par l'introduction d'une boucle de retour dans le système afin de corriger et d'ajuster les paramètres de contrôle des différentes techniques de segmentation. Le principe de la coopération proposée introduit un mécanisme de vérification de la cohérence par comparaison des résultats des méthodes qui coopèrent. Cet aspect fait défaut à un bon nombre d'approches coopératives. Le système mis au point est composé de deux modules. Le premier est dédié à l'extraction de régions uniformes ou faiblement texturées. Le principe est fondé sur une coopération itérative entre une méthode de détection de contours et une méthode d'extraction de régions. Ces deux méthodes sont itérées avec des critères de plus en plus tolérants jusqu'à la convergence vers des résultats cohérents et stables. La cohérence est contrôlée et vérifiée en minimisant une mesure de dissimilarité entre les contours et les régions. Le but est ainsi de fournir une solution optimale au sens de la compatibilité entre les deux segmentations. Le second module localise les primitives « textures » afin de réactualiser et corriger les primitives « contours » et « régions » extraites par le premier module. Cette localisation s'appuie sur une classification automatique par multi-seuillage exploitant certains mécanismes de la perception visuelle, et sur une fusion des régions multi-seuillées basée sur la minimisation d'un critère de similarité. L'efficacité de l'approche mise au point s'est traduite, dans la plupart des cas examinés, par une détection cohérente des éléments représentatifs de l'image.
10

Laffly, Dominique. "Évolutions et potentiels de l'espace comtois : recherche de méthodes par la télédétection." Besançon, 1995. http://www.theses.fr/1995BESA1003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La télédétection spatiale est un outil privilégie d'observation de la terre dont les principaux avantages concernent la couverture géographique des images, la répétitivité des prises de vue, les résolutions spectrales et spatiales des pixels. Après avoir fait le point sur les principaux traitements de corrections radiométriques et géométriques des données brutes, nous présentons un exemple d'analyse des changements de l'occupation du sol, sur l'ensemble de la Franche-Comté à plus de 13 années d'intervalle, en comparant des images MSS du mois de mai 1975 et des données TM du mois de juillet 1988. Deux approches sont retenues : la première, concerne l'analyse des changements globaux observés par un système d'agrégations spatiales emboitées ; la seconde, privilégie l'observation des évolutions locales. Une méthode fondée sur l'échantillonnage stratifié non-aligné des données et l’analyse factorielle des correspondances multiples est proposée dans le cadre de cette seconde approche, afin d'optimiser la comparaison des images multidates. Dans un dernier temps, nous développons un autre aspect de l'utilisation des images stellites à partir d'un problème écologique concret : la recherche des écotopes du grand tétras dans le Haut-Doubs (massif du Mont d'Or). Pour cela, nous formalisons les connaissances des ornithologues sur le milieu des tétras en terme d'analyse d'images numériques par un filtre de reconnaissance de texture. Ce dernier est appliqué dans un premier temps, à une image spot panchromatique dont la résolution du pixel (10 m) est adaptée à la reconnaissance des éléments fins du paysage. On se rend compte que la seule prise en compte de la texture des images ne suffit pas à la reconnaissance des écotopes. Dans un deuxième temps, par l'intermédiaire d'un SIG, nous combinons plusieurs données de nature différentes, afin de tenir compte de la composition et de la physionomie végétale (spot P et XS), de la topographie (MNT) et des contraintes exercées par l'homme et ses activités (modèle empirique de diffusion du bruit assimilé à une représentation de la "pression" humaine)
Remote sensing is a privilegied tool of the earth observation with the image's coverage, repetitivity of datas acquisition, the pixel's spectral and spatial resolution. We present in a first time an abstract of the most important radiometric and geometric operations with originals datas. After that, we developpe an example of comparison between may 1975 (mss datas) and july 1988 (tm datas) on the franche-comte area. Two ways are selected. The first one consists of a global observation of the evolution with the help of hierarchical step of spatial agregation. The second one concerns local landscpte modification and we propose a new method fonded on spatial resampling of datas and multiple factorial correspondances analysis. In a third part, we propose an other approach of remote sensing with an ecological problem about the area of "grand tetras" (tetrao urogallus). We developpe a texture filter to recognise the areas on a spot panchromatic image. The analyse needs more information and we use at the end a gis to combine datas about vegetable's physionomy and composition (spot p and xs), topographic model and a representation of human's pressure with an empiric model of noise diffusion
11

Kassou, Ismaïl. "Amélioration d'ordonnancements par des méthodes de voisinage." Rouen, 1992. http://www.theses.fr/1992ROUES025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de proposer des solutions pour l'amélioration d'ordonnancements d'ateliers de type job shop. La stratégie utilisée repose sur l'utilisation de méthodes de voisinage, telles que la trempe ou le recuit simulé ou les méthodes de recherche taboue, pour la transformation du planning courant. Un module d'optimisation a donc été greffé au logiciel de planification à court et moyen termes Fisias. Une étude a été menée, avec divers types de données issues de la littérature, de l'industrie ou générées aléatoirement, sur l'application du recuit et des méthodes de recherche taboue. Une importance particulière a été accordée aux voisinages (taille, choix, visite). On a développé une version hybride de recuit simulé qui visite en totalité ou partiellement ses voisinages ainsi qu'un recuit hybride qui choisit ses voisinages
12

Zaourar, Sofia. "Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM099.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google
Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem
13

Genty, Éric. "Synthèse par méthodes conventionnelles ou non d'oxydes mixtes par voie hydrotalcite : Application pour l'oxydation des COV et du CO." Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0412.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les émissions de composés organiques volatiles (COV) dans l'atmosphère sont réglementées à caus de leur impact sur la santé. L'oxydation catalytique est une des techniques prometteuses pour limiter ces émissions. L'objectif de ce travail était de mettre au point des catalyseurs actifs, sélectifs en dioxyde de carbone et stables pour la destruction de COV. Afin de trouver une alternative à l'utilisation de catalyseurs à base de métaux nobles, ce travail de recherche a été orienté sur la synthèse de matériaux à base d'oxydes de métaux de transition. Les différents oxydes mixtes ont été caractérisés par différentes techniques physico-chimiques dont la Diffraction des Rayons X (DRX), les Analyses Thermiques (ATD/ATG), la Réduction en Température Programmée (H₂-RTP), la Microscopie Électronique à Transmission (MET), la Spectrométrie de Photoélectrons induits par rayons X (SPX),... Dans un premier temps, une étude sur la préparation d'oxydes mixtes issus de précurseurs de type hydrotalcite a été menée, concernant le remplacement du cation bivalent. Cette étude a montré que l'oxyde mixte contenant du cobalt et de l'aluminium présentait une activité catalytique intéressante pour l'oxydation du toluène ainsi que du monoxyde de carbone. Afin d'améliorer cet oxyde mixte, une étude sur l'influence des méthodes non conventionnelles de préparations du précurseur hydrotalcite a été effectuée. Les micro-ondes ainsi que les ultrasons ont été utilisés lors de cette synthèse et les différents oxydes mixtes ont été testés dans les réactions du toluène et du CO. Lors de cette application, un effet bénéfique de l'utilisation des micro-ondes lors de la synthèse a été observé. Dans un troisième temps, une étude de l'incorporation de cérium dans la structure hydrotalcite a été menée. Un oxyde mixte du type CoAlCe a montré une activité catalytique intéressante pour l'oxydation totale du toluène. De plus, une relation entre la réductabilité et l'activité catalytique a pu être mise en évidence. Une comparaison entre les meilleurs catalyseurs de cette étude et des catalyseurs à base de métaux nobles commerciaux a été abordée. L'étude cinétique de l'oxydation totale du toluène a montré, que dans le cas des oxydes mixtes CoAlCe et CoAl, un mécanisme du type Mars Van Krevelen décrirait le mieux la réaction. Enfin, les quatre meilleurs oxydes mixtes ont été testés dans la réaction d'oxydation du toluène en présence de monoxyde de carbone. Un effet bénéfique de celui-ci sur la réactivité vis-à-vis du toluène a été observé
Catalytic oxidation is one of the promising technologies to reduce VOC emissions. The objective of this work was to develop active, selective and stable catalyst for the destruction of VOC. In order to find an alternative to the use of noble metals based catalysts, this research has been focused on the synthesis of materials based on transition metal oxides. The various mixed oxides were characterized by different physico-chemical techniques including XRD, Thermal Analysis, H2-TPR, TEM, XPS...Initially, a study on the preparation of mixed oxides derived from hydrotalcite-like precursors was conducted. Thus, it was shown that the mixed oxide containing cobalt and aluminum exhibited interesting for catalytic activity for the toluene aznd carbon monoxide total oxidation. To improve this mixed oxide, a study of the influence of non-conventional methods for the preparation of the precursor was performed. The microwave and ultrasound have been used in these syntheses. The various mixed oxides thus prepared were tested in the oxidation reactions of CO and toluene. In this application, a beneficial effectvof the use of microwaves in the synthesis was observed. Thirdly, a study of the incorporation of cerium in the hydrotalcite structure was conducted. Mixed oxides of CoAlCe show interest for the total oxidation of toluene catalytic activity. Moreover, a relationship between the reductibility and the catalytic activity has been demonstrated. A comparison of the best catalysts of this study and catalysts of noble metals business was discussed. The kinetic study of the complete oxidation of toluene showed that in the case of mixed oxides CoAlCe and CoAl, a mechanism of March Van Krevelen type described the reaction
14

Giraud, Moreau Laurence. "Optimisation des systèmes mécaniques : couplage de méthodes déterministes et évolutionnaires par les problèmes en variables mixtes." Troyes, 1999. http://www.theses.fr/1999TROY0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En conception mecanique, l'analyse du processus de conception permet d'exprimer une solution technologique non dimensionnee sous forme d'un probleme d'optimisation appele probleme de conception optimale. Ces problemes sont non-lineaires, fortement contraints, en variables mixtes (continues, entieres, discretes). Ils contiennent generalement des parametres discrets normalises, dependant des variables discretes, qui empechent de traiter ces variables comme des variables continues. Ce travail est consacre a la recherche de methodes de resolution permettant de traiter les problemes de conception optimale. Compte tenu des difficultes de ces problemes, nous nous sommes orientes vers des algorithmes evolutionnaires : l'algorithme genetique et la strategie evolutionnaire. Ceux-ci necessitant le choix d'operateurs genetiques, nous avons recherche les meilleurs operateurs de chaque algorithme pour la classe des problemes de conception optimale. La strategie evolutionnaire est apparue ici plus performante que l'algorithme genetique. Ces deux methodes ont permis de resoudre des problemes difficiles de conception optimale mais avec un nombre eleve d'evaluations. Afin de diminuer ce cout, nous avons couple la strategie evolutionnaire avec des methodes deterministes. Nous avons presente un premier couplage en serie, base sur l'utilisation sequentielle de la strategie evolutionnaire et de la methode du lagrangien augmente, puis un deuxieme couplage, utilisant en parallele des principes evolutionnaires pour l'evolution des variables discretes et des principes deterministes pour l'evolution des variables continues. Ce dernier s'est montre plus performant que la strategie evolutionnaire, en particulier lorsque les fonctions du probleme de conception optimale sont monotones. Pour la classe des problemes de conception optimale, la strategie evolutionnaire et le couplage parallele sont donc deux outils robustes. Le concepteur choisira l'un ou l'autre en fonction du probleme a traiter.
15

Ben, mhenni Ramzi. "Méthodes de programmation en nombres mixtes pour l'optimisation parcimonieuse en traitement du signal." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’approximation parcimonieuse consiste à ajuster un modèle de données linéaire au sens des moindres carrés avec un faible nombre de composantes non nulles (la “norme” L0). En raison de sa complexité combinatoire, ce problème d’optimisation est souvent abordé par des méthodes sous-optimales. Il a cependant récemment été montré que sa résolution exacte était envisageable au moyen d’une reformulation en programme en nombres mixtes(MIP),couplée à un solveur MIP générique, mettant en œuvre des stratégies de type branch-and-bound. Cette thèse aborde le problème d’approximation parcimonieuse en norme L0 par la construction d’algorithmes branch-and-bound dédiés, exploitant les structures mathématiques du problème. D’une part, nous interprétons l’évaluation de chaque nœud comme l’optimisation d’un critère en norme L1, pour lequel nous proposons des méthodes dédiées. D’autre part, nous construisons une stratégie d’exploration efficace exploitant la parcimonie de la solution, privilégiant l’activation de variables non nulles dans le parcours de l’arbre de décision. La méthode proposée dépasse largement les performances du solveur CPLEX, réduisant le temps de calcul et permettant d’aborder des problèmes de plus grande taille. Dans un deuxième volet de la thèse, nous proposons et étudions des reformulations MIP du problème de démélange spectral sous contrainte de parcimonie en norme L0 et sous des contraintes plus complexes de parcimonie structurée, généralement abordées de manière relâchée dans la littérature.Nous montrons que, pour des problèmes de complexité limitée, la prise en compte de manière exacte de ces contraintes est possible et permet d’améliorer l’estimation par rapport aux approches existantes
Sparse approximation aims to fit a linear model in a least-squares sense, with a small number of non-zero components (the L0 “norm”). Due to its combinatorial nature, it is often addressed by suboptimal methods. It was recently shown, however, that exact resolution could be performed through a mixed integer program(MIP) reformulation solved by a generic solver, implementing branch-and-bound techniques. This thesis addresses the L0-norm sparse approximation problem with tailored branch-andbound resolution methods, exploiting the mathematical structures of the problem. First, we show that each node evaluation amounts to solving an L1-norm problem, for which we propose dedicated methods. Then, we build an efficient exploration strategy exploiting the sparsity of the solution, by activating first the non-zero variables in the tree search. The proposed method outperforms the CPLEX solver, reducing the computation time and making it possible to address larger problems. In a second part of the thesis, we propose and study the MIP reformulations of the spectral unmixing problem with L0-norm sparsity more advanced structured sparsity constraints, which are usually addressed through relaxations in the literature. We show that, for problems with limited complexity (highly sparse solutions, good signal-to-noise ratio), such constraints can be accounted for exactly and improve the estimation quality over standard approaches
16

Loiseau, Yannick. "Recherche flexible d'information par filtrage flou qualitatif." Toulouse 3, 2004. http://www.theses.fr/2004TOU30263.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec le flot des données informatique, des systèmes de recherche efficaces sont précieux et requièrent une représentation des information et des besoins homogène entre humain et machine. Notre approche, basée sur le filtrage flou, représente les données linguistiques comme des classes imprécises de termes, reliées pour représenter les relations et l'ambiguïté du langage, définissant une ontologie possibiliste de concepts. Représentés de même, les besoins s'apparient aux informations, exploitant ces liens dans des recherches vagues pour obtenir des résultats plus pertinents. Tous ces besoins sont utilisé pour discriminer les documents à l'aide de méthodes issues des techniques multicritères. Nous présentons différents aspect des bases de données et de la recherche documentaire et leur union à la logique floue, puis la modélisation théorique de notre approche et son application à ces deux domaines. Nous illustrerons le système et en évaluerons les performances réelles et les apports
With the raise of electronic data, efficient information retrieval systems become necessary. To represent these information and the user needs, a better agreement between human and computer is needed. Our approach uses the fuzzy pattern matching to define a linguistic data representation, based on linked vague terms classes to model relations and ambiguity in language, defining a possibilistic concepts ontology. By representing user needs likewise, we match them with the information, and exploit links to evaluate vague searches with more relevant results. Lastly, all needs are kept in the final evaluation to discriminate documents using methods from multicriteria techniques. We first present several database and information retrieval aspects, and their integration with fuzzy techniques. The theoretic model of this approach is exposed, and applied to these two fields. Lastly, we illustrate the system and evaluate its real performances and advantages
17

Da, Rugna Jérôme. "De l'usage des méthodes bas niveau pour la recherche d'image par le contenu." Phd thesis, Université Jean Monnet - Saint-Etienne, 2004. http://tel.archives-ouvertes.fr/tel-00070811.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thématique de ces travaux de thèse est la recherche d'images par le contenu et plus précisément
l'apport des méthodes bas niveau.
Après avoir discuté des différentes approches existantes, nous rappelons le fossé sémantique
entre les attentes de l'utilisateur et ce que proposent réellement les systèmes de recherche. La
plupart de ceux-ci reposent sur une étape préalable de segmentation dont la validité et la robustesse
se doivent d'être étudiées. Nous proposons alors un protocole d'évaluation objective et un
exemple concret de mise en oeuvre. L'originalité consiste à ne pas comparer une segmentation à
une référence théorique mais à juger objectivement sa stabilité.
La troisième partie de ce document introduit trois contributions ponctuelles susceptibles
d'améliorer la chaîne de recherche. Dans un premier temps, un détecteur de flou permet d'extraire
une méta-information portée par l'image, les zones nettes a priori de focalisation. Ensuite
nous exposons un descripteur basé sur l'extraction de régions émergentes sur le seul critère couleur.
Cette extraction, conjuguée avec des distances adaptées, peut permettre par exemple un
pré-filtrage couleur en amont de la phase de recherche de similarité proprement dite. Finalement,
nous introduisons brièvement une algèbre d'histogrammes pour exploiter au mieux l'information
contenue dans ce type de descripteurs, via un langage de requêtes spécifique.
18

Da, Rugna Jérôme. "De l'usage des méthodes bas niveau pour la recherche d'images par le contenu." Saint-Etienne, 2004. http://www.theses.fr/2004STET4015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thématique de ces travaux de thèse est la recherche d'images par le contenu et plus précisément l'apport des méthodes bas niveau. Après avoir discuté des différentes approches existantes, nous rappelons le fossé sémantique entre les attentes de l'utilisateur et ce que proposent réellement les systèmes de recherche. La plupart de ceux-ci reposent sur une étape préalable de segmentation dont la validité et la robustesse se doivent d'être étudiées. Nous proposons alors un protocole d'évaluation objective et un exemple concret de mise en oeuvre. L'originalité consiste à ne pas comparer une segmentation à une référence théorique mais à juger objectivement sa stabilité. La troisième partie de ce document introduit trois contributions ponctuelles susceptibles d'améliorer la chaîne de recherche. Dans un premier temps, un détecteur de flou permet d'extraire une méta-information portée par l'image, les zones nettes a priori de focalisation. Ensuite nous exposons un descripteur basé sur l'extraction de régions émergentes sur le seul critère couleur. Cette extraction, conjuguée avec des distances adaptées, peut permettre par exemple un pré-filtrage couleur en amont de la phase de recherche de similarité proprement dite. Finalement, nous introduisons brièvement une algèbre d'histogrammes pour exploiter au mieux l'information contenue dans ce type de descripteurs, via un langage de requêtes spécifique
The matter of this work is content based image retrievaland more precisely the contribution of the low level methods. After having discussed the various existing approaches, we recall the semantic gap between the user expectations and what really the systems of research propose. Most of these approaches rely on a preliminary step of segmentation whose validity and robustness must be studied. Then we propose a protocol of evaluation and a practical example of benchmarks. The originality consists in not comparing a segmentation with a theoretical reference but judging its stability objectively. The third part of this document introduces three specific contributions likely to improve the chain of research. Initially, a detector of blur allows to extract a meta-data carried by the image: the unblur regions, a priori of focusing. Secondly, we expose a descriptor based on the extraction of emergent areas using only the color criteria. This process, combined with adapted distances, may allow for example a color pre-filtering before the step of similarity research. Finally, we briefly introduce an algebra of histograms able as well as possible to exploit the information contained in this type of descriptors, via a specific query language
19

Dupin, Cecile. "La recherche infirmière en France : approche sociologique et épistémologique." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066128.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La profession infirmière en France a vécu des changements récents en termes de recherche et de formation. Dans notre pays, la discipline infirmière est en cours d'institutionnalisation, pourtant il existe déjà des infirmières françaises mettant en ¿uvre des projets de recherche dans une relative autarcie. Dans le contexte actuel professionnel, disciplinaire et intellectuel, comment la recherche infirmière française peut-elle à la fois intégrer la sphère internationale et développer son programme singulier? Il est ambitionné de mettre en lumière ce à quoi les infirmières françaises tiennent, leurs " valeurs " scientifiques. Le programme de recherche Thot, programme séquentiel multi-méthodes, lancé en 2010, étudie le développement de la capacité de recherche infirmière en France. L'étude Thot 1 est une analyse descriptive transversale de l'activité scientifique infirmière à partir du Programme Hospitalier de Recherche Infirmière 2010 et 2011. L'étude Thot 2 est une ethnographie des pratiques de recherche infirmière mises en ¿uvre, combinées à la pratique clinique. Thot 3 est une étude phénoménographique sur les conceptions de la recherche, acquises pendant la formation, par des infirmières titulaires d'un doctorat, en France et en Suède. Les résultats des trois études ont été triangulés au regard de la définition de la science comme pratique socio-culturelle et sept valeurs sont proposées : réflexivité, formation dédiée, cohérence, diversité, confiance, transmission et transformation. Ce programme, déployé et mis en ¿uvre lors d'une des étapes charnières, contribue à l'intégration, dans le futur, des valeurs des infirmières françaises, comme des valeurs scientifiques
Nursing research and education recently changed in France. In our country, the nursing discipline is currently transforming toward an academic institutionalisation. European development of nursing research is heterogeneous, but the paths of progress seem similar if four sequential stages. Nursing research is characterized by its diversity. However, French nurses implement research projects, in a relative seclusion. In the current professional, disciplinary and intellectual French nursing context, how can nursing research integrate both the international arena and develop its own unique programme? This thesis further aspires to highlight French nurses? scientific values and provide guidelines for nursing research and education in France. The research programme Thot, a multi-method programme, was launched in 2010 to study the development of French nursing research capacity. Thot 1 study was a descriptive cross-sectional analysis of the Hospital Nursing Research Programme 2010 and 2011 scientific activity. Thot 2 study was an ethnography of nursing research practices, combined with clinical practice. Thot 3 was a phenomenographic study of research concepts acquired during a doctoral apprenticeship in France and Sweden. Seven values were derived from the integration of the results of the three studies: reflexivity, dedicated education, coherence, diversity, confidence, transmission and transformation. We hope that this programme, deployed and implemented concurrently to one of the stage of development of nursing in France, will participate in the future integration of the values of French nurses as scientific values
20

Rigal, Jean-François. "Analyse et modélisation des systèmes mécaniques en conception assistée par ordinateur." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une boîte de transmission par engrenages constitue un système mécanique avec un grand nombre de pièces. On sait que la méthode des Éléments Finis (E. F. ) ne peut analyser que des sous- ensembles réduits de pièces. Ainsi. Les distributions de charges obtenues sur ces sous - ensembles, peuvent être éloignées de la réalité car les systèmes mécaniques sont de plus en plus légers et déformables, et les interactions des pièces sont grandes. D'un autre côté, la réalisation de prototypes et d'essais suppose des investissements et des temps qui ne peuvent plus être justifiés en conception de produit. Alors des outils de calculs nouveaux spécifiques à la C. A. O. En mécanique doivent être développés. Une approche de modélisation est proposée pour les systèmes mécaniques. Des éléments simples de structure sont utilisés avec des matrices de rigidités explicites. Les déplacements cinématiques et les conditions de transmission de charges sont aussi considérés. La qualification du logiciel a été faite en comparant des résultats de calculs avec des résultats d'expérimentation pour une Boite de Transmission de Puissance complète (BTP). Par la suite, une présentation synthétique de l'analyse d'une BTP hélicoptère permet d'introduire la notion de coefficients d'influence d'un système mécanique. Elle permet de quantifier l'influence d'éléments mécaniques éloignés d'une zone d'étude et de montrer que les interactions de comportement sont primordiales dans les résultats. Enfin, une étude 3D des distributions de charge dans un roulement à rotule de satellite de réducteur épicycloïdal, montre l'influence des déformations de volume du satellite et l'interaction avec les conditions cinématiques imposées par les surfaces de dentures. Les résultats théoriques ont ainsi permis d'apporter des réponses sur l'apparition de dégradation de paliers à roulement.
21

Habchi, Baninia. "Mise en évidence des perturbations métaboliques liées à l’exposition aux toxiques présents dans l’environnement ou l’aliment par spectrométrie de masse à ultra haute résolution FTMS combinée avec des outils chimiométriques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The implementation of genomic selection makes possible the inclusion of new traits in breeding goals, by taking advantage of the opportunities coming from the increased genetic trend on traits currently under selection. Breeders, breeding companies and society all have changing expectations regarding genetic selection. Two groups of new traits were analyzed in the context of genetic improvement of dairy cattle: carcass traits of young bulls in dual-purpose breeds and claw health traits in Holstein, in order to prepare the implementation of genetic and genomic selection on these traits. For both sets of traits, suitable genetic evaluation models were developed and genetic parameters were estimated. Genetic parameters reveal that genetic selection of carcass traits of young bulls appears to be fairly easy and that selection of claw health traits is going to be more difficult, but possible, given the existing genetic variation. They also highlight that there is no strong negative genetic correlation between carcass traits of young bulls and dairy production traits. Finally, they reveal that there are two genetically distinct groups of claw health traits. Several strategies to account for non-exhaustive recording of cows for trimming were tested. Several evaluation approaches were compared. For both sets of traits, Single-Step Genomic BLUP was the most promising approach, although other (two-step) genomic approaches allowed for relatively similar accuracies and control of bias. These studies led to the implementation of routine genetic and genomic evaluations for both sets of traits, for which a usual two-step genomic approach was preferred over Single-Step Genomic BLUP for consistency with the current evaluation of other traits. However these two examples illustrate the benefit of implementing routine Single-Step Genomic BLUP evaluations. The main questions and principal steps identified in these studies were gathered into tentative guidelines for the development of genetic evaluations for new traits. d‘un grand nombre d‘échantillons biologiques pour mettre en évidence les perturbations métabolomiques induites par l‘exposition à des substances toxiques. Dans une première partie de ce travail, nous nous sommes intéressés à l‘étude d‘un petit groupe d‘agriculteurs ayant été exposés dans le cadre professionnel à deux pesticides. Une mise au point de l‘approche DIMS sur un instrument de type Orbitrap a été réalisée. Une procédure de traitement des données a aussi été développée. Elle est basée sur un nouvel outil dite IC-DA (independent component - discriminant analysis). Cette méthodologie a ensuite été appliquée sur un nombre d'échantillons plus élevé issus de cinq types d‘exposition. Dans cette étude, deux approches analytiques DIMS et LC/MS ont été examinées afin de valider l‘approche DIMS mais aussi l‘outil de traitement chimiométrique développé. Une deuxième partie est dédiée aux travaux visant à étendre l‘approche à haut débit sur un instrument de performances plus élevées, le FT-ICR (Fourier transform - ion cyclotron resonance) équipé d'une nouvelle cellule de piégeage dite ̎dynamically harmonized cell ̎. Une première étude a concerné l‘exposition des rats à différents concentration de pesticides. Dans une deuxième étape, une étude sur un nombre important d‘échantillon d‘urines humaines (d‘environ 500 individus) a été réalisée pour tester la robustesse de notre approche. Mes travaux ont permis de démontrer la faisabilité et l'efficacité de notre approche métabolomique à haut débit combinant l‘introduction directe DIMS, la détection à très haute résolution et les outils chimiométriques. Cette approche pourrait être très prometteuse pour réaliser le phénotypage métabolique à grande échelle, comme dans les études épidémiologiques
Public health monitoring involves evaluation of population exposure to environmental toxicants which can have an impact on their health. To do this, robust and high-throughput approaches are required to perform large scale analyses. Global approaches such as metabolomics which aim to reveal metabolic changes due to environmental stress or diseases seem to be the most appropriate approach. This multidisciplinary approach requires powerful analytical techniques such as mass spectrometry (MS) associated with statistical and chemometric data processing. It allows to detect general metabolic disruptions induced by a given physiological or pathological conditions. The studied samples can be injected either directly by the DIMS technique (direct introduction mass spectrometry) or following a chromatographic separation using GC/MS or LC/MS (gas or liquid chromatography / mass spectrometry). The DIMS approach leads to a significant reduction in analysis time, down to only a few minutes (usually less than 3 min). Additionally, in combination with Fourier transform mass spectrometers (DIFTMS), it provides very high mass resolving power and accurate mass measurements, as well as a wide dynamic range resulting in improved efficiency. Nevertheless, the DI-FTMS approach generates complex data containing several thousands of peaks. Processing such large data sets requires the development of dedicated chemometric and statistical tools to detect exposure biomarkers. Therefore, the objective of my work was to develop a rapid, highthroughput workflow, including the development of chemometric tools, in order to highlight metabolomic perturbations induced by exposure to toxicants. The first part of this work concerns the study of farmers professionally exposed to two pesticides. The DIMS approach was performed on an Orbitrap instrument and a new chemometric tool called Independent Component - Discriminant Analysis (IC-DA) was developed for supervised analysis of the DIMS data. The developed methodology was then applied to a larger number of samples corresponding to five types of exposure. In this later study, two analytical approaches DIMS and LC/MS were examined in order to validate the DIMS approach as well as the developed chemometric data analysis tool. In a second part of this work, the DIMS approach was applied to an instrument of higher performances, the FT-ICR (Fourier transform-ion cyclotron resonance) equipped with a dynamically harmonized cell in order to improve the quality of the DIMS data. A first study explored the effects of exposure of rats to different concentrations of pesticides. In a second step, the procedure was applied to a large number of samples (of approximately 500 individuals) to test the robustness of the approach. All this work demonstrated the feasibility and effectiveness of our high-throughput metabolomic approach combining the direct introduction (DIMS), the very high resolution detection and the chemometric tools. This approach could be very promising to perform large scale metabolic phenotyping such as in epidemiological studies
22

Lenica, Anneli. "Méthodes d'accès décentralisées pour la recherche par le contenu dans les environnements distribués dynamiques." Paris 6, 2010. http://www.theses.fr/2010PA066068.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est de contribuer au développement de nouvelles techniques de recherche de données basée sur le contenu, utilisables dans un environnement de type pair-àpair (P2P), sans ressource partagée. En particulier, nous nous concentrons sur la résolution, pour des données multidimensionelles, de trois types de requêtes importants : les requêtes par intervalles, les requêtes de similarité et les requêtes skyline. La structure de données la plus couramment employée dans le domaine est du type table de hachage distribuée (DHT). Toutefois le hachage impose un enregistrement sur la base d’une valeur unique de clé. De plus, il détruit la localité des données. La destruction de la localité compromet le traitement efficace des requêtes portant sur des données corrélées, ce qui est le cas des types de requêtes qui nous intéressent. Or, de ce pouvoir d’interrogation dépend la possibilité pour l’utilisateur de découvrir des données. Afin de répondre aux limitations de l’existant, nous proposons dans cette thèse une solution complète d’indexation et de localisation décentralisées de données multidimensionnelles : PosNet. Dans le cadre de nos contributions, nous proposons une structure de données multidimensionnelle originale, nommée pograph, préservant un ordre sur le clés. Cet ordre nous permet de définir une famille d’algorithmes de recherche permettant d’élaguer l’espace de recherche, tout en fonctionnant dans un pograph distribué. Il en résulte que PosNet permet de résoudre de manière décentralisée et sans jointure les requêtes exactes, avec joker, par intervalles, de similarité et skyline. Un prototype, pyPosNet, est disponible publiquement sous une licence libre.
23

Lalande-Markon, Marie-Pierre. "Perceptions et réponses du public aux incertitudes associées aux risques de santé publique: Une investigation par méthodes mixtes." Thèse, Université d'Ottawa / University of Ottawa, 2011. http://hdl.handle.net/10393/20258.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but principal de la thèse est de mettre en lumière une conceptualisation heuristique de l’incertitude qui permette d’expliquer la manière dont elle est interprétée par les citoyens dans le contexte des risques de santé publique et quelles stratégies de gestion (coping) sont déployées afin d’y faire face. L’emploi de méthodes mixtes est privilégié. La première étude, testant un schème psychométrique sur les données d’une enquête nationale documentant le risque et l’acceptabilité perçue d’un enjeu de santé publique (N= 1517), révèle que l’incertitude perçue se distingue d’autres évaluations cognitives de la menace, telle que la probabilité. Elle est associée à une augmentation de l’inquiétude ressentie seulement lorsque l’impact perçu du risque sur la santé est élevé. La deuxième étude, testant un devis de recherche expérimental auprès de Canadiens du grand public (N= 434), démontre que l’effet sur l’adhérence au message, de différents types d’avertissements à propos d’un risque varie selon les sources d’incertitude communiquées. En particulier, la communication d’ambiguïté (divergence entre experts ou données contradictoires) diminue l’adhérence au message, alors que la communication d’incertitude épistémique (manque de données scientifiques) ne diminue pas l’adhérence au message ni la confiance envers la source. Les dernières études explorent la construction du sens donné à l’incertitude par les citoyens à travers une approche qualitative, avec trois entrevues individuelles et neuf groupes de discussion réalisés auprès d’adultes provenant de villes canadiennes (N= 47). La troisième étude analyse la portion des entrevues mettant l’accent sur les attentes des citoyens à propos de qui devraient être impliqués dans la communication gouvernementale du risque, pourquoi les incertitudes devraient être communiquées, lesquelles sont désirables, et comment et quand les discuter. La quatrième étude emprunte la méthode de la théorie ancrée afin d’élaborer un schéma conceptuel explicatif des réactions à l’incertitude. Celui-ci identifie et met en lien les principaux facteurs d’importance, soit: la source d’incertitude, les caractéristiques situationnelles et individuelles, le contrôle perçu et la confiance envers la source d’information et les gestionnaires du risque. Ces résultats permettent de mieux comprendre et d’anticiper les réactions du public dans la communication et la gestion du risque.
24

Ait, ou ammi Ali. "Sur l'approximation des équations de Navier-Stokes bidimensionnelles incompressibles par des méthode multi-niveaux de type Galerkin non linéaire : cas des élements finis mixtes." Ecully, Ecole centrale de Lyon, 1994. http://www.theses.fr/1994ECDL0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Mroué, Ali. "Modélisation et simulation d’opérateur humain dans une tâche de recherche d’information par navigation." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre du développement d’outils de modélisation et simulation d’opérateurs humains dans des tâches informatisées nous nous sommes intéressés à l’analyse de parcours empruntés par les visiteurs d’un site web. Un module a été développé qui, à partir des fichiers log recueillis par le serveur Web, extrait les parcours (sessions) de chaque Internaute. Un second module exploite les sorties du premier afin de grouper les parcours similaires en classes. A partir de ces classes nous déduisons des modèles de comportement. Ces derniers viennent ensuite enrichir un modèle cognitif de tâche portant sur la recherche d'information dans un hypertexte. Nous parvenons ainsi à un modèle de comportement de l'internaute dans une tâche de recherche d'information par navigation. Le croisement des deux approches nous permet d’augmenter le réalisme des modèles élaborés. D’abord exprimés en GOMSL ils sont ensuite spécifiés en DEVS pour vérifier nos hypothèses sur l’activité des utilisateurs grâce à la simulation. Des critères cognitifs sont aussi pris en compte pour couvrir les facteurs influençant la décision. Les expérimentations faites sur des sites de tests ont montré des résultats satisfaisant à fois sur l’extraction des classes et les modèles de comportements. De tels travaux permettent d'envisager l'utilisation de simulateurs pour l’évaluation de l’accessibilité de l’information en fonction d’un but ou de certaines connaissances
Through the development of tools for modeling and simulation of human operators in computerized tasks, we were interested in the analysis of paths borrowed the users in Web sites. A first module has been developed which, based on log files collected by the Web server, extracts sessions of users. A second module exploits the results of the first one in order to group the similar sessions into classes. We deduct from these classes behavior models. These latter come to enrich theoretical models of information retrieval (IR) in hypermedia tasks. We reach then a behavior model of an Internet user in an IR by navigation task. The crossing of the two approaches allows us to increase the realism of the elaborated models. At first expressed in GOMSL, they are then specified in DEVS allowing their simulations and tests to verify our assumptions about user activity. Cognitive criteria are also taken into account to cover the factors influencing the decision. The experiments made on many websites showed satisfying results at once on the extraction of the classes and the behavior models. This suggests the use of such simulator for the evaluation of the information accessibility according to a goal or to certain knowledge. Beyond this case, the models and the developed platform should allow studies and developments on other software environments and on other tasks
26

Berrada, Mohamed. "Une approche variationnelle de l'inversion : de la recherche locale à la recherche globale par carte topologique : application en inversion géoacoustique." Paris 6, 2008. http://www.theses.fr/2008PA066016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La propagation acoustique dans la colonne d'eau peu profond et à basse fréquence dépend fortement des caractéristiques géoacoustiques du sous sol marin et de la colonne d'eau. Il s'agit dans cette thèse d'élaborer un modèle d'inversion variationnelle des données géoacoustiques permettant de retrouver ces caractéristiques d'une manière précise. Les méthodes d'inversion variationnelles consistent à introduire des fonctions coûts qui mesure le degré d'adaptation entre les observations et leurs équivalentes modèle. Notre modèle d'inversion est basé sur deux approches: une approche modulaire du calcul de l'adjoint du modèle de propagation direct, nécessaire pour calculer le gradient des fonctions coûts, et une approche neuronale, ou plus particulièrement les cartes topologiques, permettant une recherche aussi globale que locale. Nous étudions d'abord l'approche modulaire que nous allons appliquer en inversion géoacoustique sur des données synthétiques, puis une validation dans le cadre d'une expérience avec des données réelles sera présentée. Nous présentons ensuite une méthode d'inversion globale basée sur un modèle d'ACP probabiliste et les cartes topologiques. Les tests de validation de cette méthode, en inversion géoacoustique sur des données synthétiques bruitées, montrent son efficacité.
27

Ferecatu, Marin. "Recherche d'images par retour de pertinence actif utilisant des descripteurs visuels et textuels." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse explore un nombre de problèmes liés à la recherche interactive d'images dans de grandes bases multimédia, en utilisant à la fois la description de l'apparence visuelle et les éventuelles informations textuelles. Nous introduisons d'abord les signatures couleur pondérées par une mesure locale de non-uniformité des pixels, qui intègrent en même temps plusieurs caractéristiques visuelles des images (couleur, texture et forme), et nous validons leur qualité sur différentes bases vérité terrain. Ensuite, nous présentons plusieurs améliorations pour le contrôle de pertinence basé sur les machines à vecteurs de support (SVM) : premièrement, nous introduisons une nouvelle méthode d'apprentissage actif avec réduction de la redondance entre les exemples ; deuxièmement, nous proposons l'utilisations de fonctions noyau spécifiques (comme le noyau triangulaire) pour obtenir l'insensibilité de la SVM au changement d'échelle des données, tout en gardant une très bonne qualité des résultats obtenus. Pour les bases d'images qui possèdent des annotations textuelles, nous présentons une méthode qui, à partir des mots-clefs, fait appel à une ontologie externe (WordNet) afin de produire un descripteur conceptuel pour chaque image. La combinaison de notre nouveau descripteur conceptuel avec les descripteurs visuels permet d'obtenir des résultats sensiblement meilleurs dans tous les tests que nous avons faits
In this thesis we explore a number of issues related to interactive querying of image databases, using both the description of the visual appearance and keyword annotations. We start by introducing the weighted color histograms, that intimately integrate color, texture and shape, and we validate their quality on multiple ground truth databases. Then, we propose several improvements for the SVM-based relevance feedback approach: first, we put forward an improved active learning selection strategy, based on a reduction of the redundancy between the images selected at every feedback round and second, we propose the use of specific kernel functions, such as the triangular kernel, that allow to obtain insensitivity to changes in the scale of the data, while keeping performance at a very good level. Finally, for image databases having keyword annotations associated with images, we propose a new keyword-based feature vector that makes use of an external ontology (WordNet) to induce a semantic generalization of the concepts corresponding to keywords. When used in combination with the visual signatures, our new feature vector can improve significantly the quality of the returned results both in query by visual example situation and with relevance feedback
28

Sinoimeri, Artan. "Contribution à l'étude du comportement mécanique des étoffes par méthodes énergétiques : cas de l'armure toile." Mulhouse, 1993. http://www.theses.fr/1993MULH0299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le point de départ de cette étude est l'approche théorique faite par De Jong et Postle. L'analyse bibliographique réalisée dans la première partie permet la description des trois types de modèles d'une structure textile et de son comportement mécanique : les modèles géométriques, les modèles mécaniques et les méthodes énergétiques. Cette analyse met en lumière les avantages des méthodes énergétiques. L'analyse des équations de De Jong et celles de Knoll démontre que leurs différences sont entièrement négligeables. Deux formes de relaxation sont introduites dans l'analyse : l'une, définie par Olofson, De Jong et Postle implique une courbure résiduelle dans le fil ; l'autre, nouvelle forme, est due aux variations de la section droite du fil. Une série de simulations numériques est réalisée afin d'étudier le comportement mécanique de la toile sous les contraintes de traction uniaxiale, cisaillement et flexion pure. L'analyse qualitative et quantitative des courbes respectives charge-déformation aboutit à des formules théoriques reliant les paramètres de la structure et de son comportement mécanique. Les paramètres de la structure analysés sont : les diamètres des fils, ainsi que leur longueur dans l'armure, leur rigidité en flexion, en traction et en compression, et les deux coefficients de relaxation. Les paramètres choisis pour caractériser le comportement mécanique sont : dans le cas de la traction l'embuvage, la contraction transversale maximale, la pente initiale de la courbe force-allongement ainsi que la force, la première et la deuxième dérivée de la courbe au point caractéristique qui est son point d'inflexion et où l'allongement coïncide avec l'embuvage ; dans le cas du cisaillement et de la flexion, le paramètre analysé est la pente initiale de la courbe. Enfin, une série d'observations expérimentales vérifie les tendances trouvées théoriquement
29

Oudin, Fabienne. "Schémas volumes finis pour problèmes elliptiques : analyse a priori et a posteriori par éléments finis mixtes, méthode de décomposition de domaines." Lyon 1, 1995. http://www.theses.fr/1995LYO10303.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, on s'intéresse aux relations entre les méthodes de type volumes finis et les méthodes éléments finis mixtes pour la discrétisation des problèmes elliptiques. L'intérêt est d'utiliser un cadre théorique de type variationnel permettant d'obtenir pour une classe de schémas de type volumes finis, des résultats de majoration d'erreurs, à priori et à posteriori. Un estimateur d'erreur à posteriori, asymptotiquement exact, est obtenu en exploitant les liens existant entre méthodes volumes finis, éléments finis mixtes et éléments finis non conformes, et une méthode adaptative de décomposition de domaines est développée pour des méthodes volumes finis.
30

Auclair, Adrien. "Méthodes rapides pour la recherche des plus proches voisins SIFT : application à la recherche d'images et contributions à la reconstruction 3D multi-vues." Paris 5, 2009. http://www.theses.fr/2009PA05S012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la premiere partie de cette thèse, nous nous intéressons à la recherche rapide de plus proches voisins de descripteurs locaux d'images. Nous nous sommes concentrés sur la recherche de descripteurs SIFT en raison de leur efficacité. Nous appliquons nos résultats à la recherche d'images similaires, notamment dans des grandes bases. Nous comparons d'abord les performances de la recherche linéaire sur CPU et sur GPU (processeurs des cartes graphiques), ainsi que les résultats obtenus en utilisant une distance partielle. Ensuite, nous proposons un algorithme de recherche approximative des voisins. L'algorithme proposé est basé sur des fonctions de hachage qui construisent des clés de hachage à partir d'un sous ensemble de dimensions de l'espace, sélectionné pour chaque point. Pour la recherche d'images similaires, cet algorithme s'avère être plus performant que les algorithmes de l'etal de l'art. Nous montrons l'efficacite de cet algorithme en l'utilisant pour chercher des images similaires dans une base de 500. 000 images, avec des requêtes effectuées en moins de 300 ms. Enfin, nous montrons que cet algorithme s'adapte tout à fait à un cadre « Bag-Of-Features » et qu'il est plus performant, sur des bases d'images similaires, que des vocabulaires k-means. Dans une seconde partie, nous concentrons nos travaux sur la reconstruction 3D à partir de plusieurs images. Nous proposons une méthode pour reconstruire de manière robuste une voiture en 3D a partir d'une acquisition vidéo. Le système proposé fait l'hypothèse que les voitures sont en translation rectiligne pour ensuite reconstruire le vehicule filmé par extrusion de polynômes. Enfin, nous introduisons un algorithme de reconstruction 3D multi-vues qui utilise les descripteurs SIFT pour trouver des correspondances entre des images de l'objet et des rendus virtuels de l'objet temporaire en cours de reconstruction. Cette méthode permet de faire converger une surface 3D vers la surface réelle de l'objet
In the first part of this thesis, we are concerned by the nearest neighbour problem, applied on local image descriptors. We restricted ourselves to the SIFT descriptors because of its efficiency. The application of this work is the retrieval of similar images in large databases. First, we compare performances of linear search, on CPU and on GPU (graphic processors), and also when using partial distances. Then, we propose new hash functions t solve the approximate nearest neighbours problem. The hash functions we propose are based on a selection of a few distinctive dimensions per point. For the application of near duplicate retrieval, our algorithm is more efficient than state-of-the-art algorithms. Tested on a database containing 500. 000 images, it finds similar images in less than 300ms. Eventually, we show that it fits very simply within a Bag-Of-Features approach, and it retrieves mor images than kmeans based vocabularies. In a second part, we propose several results on the problem of multi-view 3D reconstruction. We first propose a robust method to obtain the 3D reconstruction of a car from a video sequence. Our system uses the hypothesis that the car is in linear translation in order to fit a point cloud with polynomial surfaces. Then, we propose an algorithm, not dedicated to cars, that uses SIFT descriptors to obtain the 3D surface from images of an object. The descriptors correspondences are searched between input images and virtual images of the temporary object. With this method, the reconstructed surface converges to the true surface object
31

Grave, Xavier. "Etude de méthodes pour la recherche avec le détecteur VIRGO d'ondes gravitationnelles émises par des étoiles à neutrons." Phd thesis, Université Paris Sud - Paris XI, 1997. http://tel.archives-ouvertes.fr/tel-00003045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de l'expérience Virgo est la détection des ondes gravitationnelles. L'objet de cette thèse est l'étude de méthodes pour la recherche de signaux émis par des étoiles à neutrons ainsi que l'étalonnage du détecteur.
Dans une première partie, l'étoile à neutrons et son émission d'ondes gravitationnelles, sont présentées. Ensuite le détecteur, les principales sources de bruits, ainsi que la solution adoptée pour l'étalonnage sont décrits.
Puis dans une seconde partie la modélisation des effets dus aux mouvements de la terre (effet Doppler, modulation d'amplitude) est décrite. Leurs conséquences sur le rapport signal sur bruit sont déterminées.
Les deux derniers chapitres sont consacrés aux algorithmes de recherche de signaux périodiques. Tout d'abord le cas où la position de la source est connue est présenté. Le ralentissement de la rotation de la source et la correction de cet effet sont décrits. La correction de l'effet Doppler est aussi détaillée. De même, le problème de la gestion du gigantesque flot de données à traiter est abordé, et une solution y est apportée. Finalement la difficulté de recherche multidirectionnelle est présentée. Des prototypes d'algorithmes hiérarchiques sont aussi évalués.
32

Barbotteau, Yves. "Recherche des modifications de caractéristiques dans des biomatériaux en verre bioactif par des méthodes nucléaires et physico-chimiques." Phd thesis, Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF21360.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les biomatériaux à usage orthopédique posent le problème de leur devenir dans l'organisme. Lorsqu'ils sont métalliques, ils posent le problème du relargage de métaux dans les tissus voisins. L'alliage de titane Ti6AI4V est utilisé pour ses bonnes propriétés mécaniques et pour sa résistance à la corrosion. L'usage d'un revêtement permet d'améliorer encore ses performances. J'ai étudié deux revêtements en verre référencés BVA et BVH. La caractérisation in vivo et in vitro a été menée grâce à plusieurs techniques complémentaires d'analyse : microscopies électroniques et méthodes nucléaires (PIXE. . . ). Le verre BVA s'est révélé être bioactif. Il se transforme en un gel de silicium avec incorporation de protéines et d'oligo-éléments (Zn et Sr), et ce, dès 3 mois après implantation. Ce gel disparaît peu à peu et est remplacé par un os néoformé. Cet os a été analysé comme mature après un an d'implantation ; il assure une meilleure ostéointégration de l'implant. Quant au verre BVH, il est bioinerte. Sa composition est constante au cours du temps. Cependant, la formation d'une interface de 2 µm d'épaisseur, induite par le processus de dépôt du revêtement, fragilise les liaisons inter-granulaires. Cela se traduit par la fragmentation du revêtement et la migration de grains de verre à travers le réseau lacunaire de l'os environnant. Les deux verres sont une barrière efficace contre la corrosion de l'alliage, tant qu'ils restent en place. J'ai proposé les bases d'une nouvelle méthodologie d'analyse : la combinaison de la cartographie PIXE et de l'histopathologie. Le principal intérêt est de corréler une éventuelle réponse tissulaire à la présence de certains éléments atomiques. J'ai introduit pour la première fois la théorie de la percolation pour essayer de modéliser la résorption de biomatériaux poreux tel que le corail et les hydroxyapatites. Les premières simulations sont très prometteuses et rendent bien compte de plusieurs résultats expérimentaux observés
33

Philibert, Aurore. "Méthodes de méta-analyse pour l’estimation des émissions de N2O par les sols agricoles." Thesis, Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0072/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O
The term meta-analysis refers to the statistical analysis of a large set of results coming from individual studies about the same topic. This approach is increasingly used in various areas, including agronomy. In this domain however, a bibliographic review conducted by this thesis, showed that meta-analyses were not always of good quality. Meta-analyses in agronomy very seldom study the robustness of their findings relative to data quality and statistical methods.The objective of this thesis is to demonstrate and illustrate the importance of sensitivity analysis in the context of meta-analysis and as an example this is based on the estimation of N2O emissions from agricultural soils. The estimation of emissions of nitrous oxide (N2O) is made at the worldwide level by the Intergovernmental Panel on Climate Change (IPCC). N2O is a potent greenhouse gas with a global warming power 298 times greater than the one of CO2 over a 100 year period. The key characteristics of N2O emissions are a significant spatial and time variability. Two databases are used for this work: the database of Rochette and Janzen (2005) and the one of Stehfest and Bouwman (2006). They collect numerous worldwide N2O emissions measurements from published studies and have played a significant role in the estimation of N2O emissions produced by the IPCC. The results show the value of random effects models in order to estimate N2O emissions from agricultural soils. They are well suited to the structure of the data (repeated observations on the same site for different doses of fertilizers, with several sites considered). They allow to differentiate the inter-site and intra-site variability and to estimate the effect of the rate of nitrogen fertilize on the N2O emissions. In this paper, the analysis of the sensitivity of the estimations to the shape of the relationship "Emission of N2O / N fertilizer dose" has shown that an exponential relationship would be the most appropriate. Therefore it would be appropriate to replace the constant emission factor of the IPCC (1% emission whatever the dose of nitrogen fertilizer) by a variable factor which would increase with the dose. On the other hand we did not identify significant differences between frequentist and Bayesian inference methods. Two approaches have been proposed to include environmental variables and cropping practices in the estimates of N2O. The first one using the Random Forest method allows managing missing data and provides the best N2O emissions predictions. The other one, based on random effects models allow to take into account these explanatory variables via one or several measurements of N2O. They allow predicting N2O emissions for non-tested doses in unfertilized farmer's field. However their results are sensitive to the experimental design used locally to measure N2O emissions
34

Guez, Judith. "Illusions entre le réel et le virtuel (IRV) comme nouvelles formes artistiques : présence et émerveillement." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080109/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les illusions surprennent, amusent et émerveillent. Si parmi les intentions esthétiques du créateur, se trouve l’objectif de provoquer chez le spectateur des interrogations face à sa perception de la réalité quotidienne, alors les illusions peuvent devenir un atout essentiel dans la création artistique.Par ailleurs, le domaine de la réalité virtuelle et mixte, avec ses technologies numériques d’immersion et d’interaction, offre de nouvelles possibilités pour « transporter » le spectateur dans des mondes inhabituels, imaginés par les artistes.Ainsi, à partir de mon double intérêt pour les illusions et la réalité virtuelle et mixte, j’ai été amenée à développer une recherche-création sur les nouvelles formes artistiques d’illusion. Inspirée de la méthodologie complexe d’Edgard Morin, j’ai exploré théoriquement et pratiquement l’espace des illusions entre le réel et le virtuel (IRV), afin d’identifier et de créer ces nouvelles formes artistiques émergeant de la synergie des relations entre le spectateur, l’œuvre et l’artiste. J’ai composé ma propre palette de création d’IRV, qui parcourt les trois frontières : celle entre le réel et le virtuel, celle entre le réel et l’illusion, et enfin celle entre le virtuel et l’illusion. Et j’ai clarifié ma démarche artistique émergeant de cette recherche : viser à l’exploration de nouvelles expériences d’illusions entre le réel et le virtuel, afin d’atteindre de plus grandes profondeurs d’illusion et de présence dans l’expérience proposée au spectateur. Je me rapproche alors de ce que je nomme la survirtualité, le virtuel étant un merveilleux moyen pour imaginer, rêver des mondes d’illusions imbriquées
Illusions surprise, amuse and amaze. If among the aesthetic intentions of the creator is the objective of raising questions in the spectator's mind about her own perception of everyday reality, then illusions can become an essential asset of artistic creation. Furthermore, we observe that the field of virtual and mixed reality, with its digital technologies of immersion and interaction, provides new possibilities to "transport" the spectator in unusual worlds, imagined by the artists. Thus, from my double interest in illusions and virtual and mixed reality, I was led to develop a research-creation on new artistic forms of illusion. Inspired from Edgard Morin's method of complexity, I theoretically and practically explored the space of illusions between the real and the virtual (IRV), to identify and create these new art forms emerging from the synergy of the relationship between the spectator, the artistic work and the artist. I composed my own palette for the creation of IRV, which covers the three borders: the one between the real and the virtual, the one between the virtual ant the illusion, and finally the one between the virtual and the illusion. I thus clarified my artistic approach emerging from this research: aiming at the development of experiments nesting several levels of illusions of reality, with the help of real and virtual apparatuses, and striving to explore illusions unique to the virtual, to achieve deeper illusion and presence in the experience offered to the spectator. I can then go closer to what I call the survirtuality, the virtual being a wonderful way to imagine, to dream worlds of nested illusions
35

Vincent, Christian. "Méthodes de gradient conjugué préconditionné et techniques multigrilles pour la résolution du problème de stokes par éléments finis mixtes Q1-PO stabilisés : applications." Aix-Marseille 1, 1991. http://www.theses.fr/1991AIX11343.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette these, nous presentons differents solveurs de stokes par elements finis mixtes q1-p0 stabilises. Plusieurs methodes de gradient conjugue (avec preconditionneur de type macro-blocs) et techniques multigrilles, ont ete proposees pour une formulation mixte ou duale de ce probleme. En application, nous utilisons le solveur de stokes par formulation duale stabilisee pour la resolution de certains problemes non lineaires (ecoulement de navier-stokes, fluides quasi-newtoniens)
36

Ollier, Edouard. "Sélection de modèles statistiques par méthodes de vraisemblance pénalisée pour l'étude de données complexes." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN097.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est principalement consacrée au développement de méthodes de sélection de modèles par maximum de vraisemblance pénalisée dans le cadre de données complexes. Un premier travail porte sur la sélection des modèles linéaires généralisés dans le cadre de données stratifiées, caractérisées par la mesure d’observations ainsi que de covariables au sein de différents groupes (ou strates). Le but de l’analyse est alors de déterminer quelles covariables influencent de façon globale (quelque soit la strate) les observations mais aussi d’évaluer l’hétérogénéité de cet effet à travers les strates.Nous nous intéressons par la suite à la sélection des modèles non linéaires à effets mixtes utilisés dans l’analyse de données longitudinales comme celles rencontrées en pharmacocinétique de population. Dans un premier travail, nous décrivons un algorithme de type SAEM au sein duquel la pénalité est prise en compte lors de l’étape M en résolvant un problème de régression pénalisé à chaque itération. Dans un second travail, en s’inspirant des algorithmes de type gradient proximaux, nous simplifions l’étape M de l’algorithme SAEM pénalisé précédemment décrit en ne réalisant qu’une itération gradient proximale à chaque itération. Cet algorithme, baptisé Stochastic Approximation Proximal Gradient algorithm (SAPG), correspond à un algorithme gradient proximal dans lequel le gradient de la vraisemblance est approché par une technique d’approximation stochastique.Pour finir, nous présentons deux travaux de modélisation statistique, réalisés au cours de cette thèse
This thesis is mainly devoted to the development of penalized maximum likelihood methods for the study of complex data.A first work deals with the selection of generalized linear models in the framework of stratified data, characterized by the measurement of observations as well as covariates within different groups (or strata). The purpose of the analysis is then to determine which covariates influence in a global way (whatever the stratum) the observations but also to evaluate the heterogeneity of this effect across the strata.Secondly, we are interested in the selection of nonlinear mixed effects models used in the analysis of longitudinal data. In a first work, we describe a SAEM-type algorithm in which the penalty is taken into account during step M by solving a penalized regression problem at each iteration. In a second work, inspired by proximal gradient algorithms, we simplify the M step of the penalized SAEM algorithm previously described by performing only one proximal gradient iteration at each iteration. This algorithm, called Stochastic Approximation Proximal Gradient Algorithm (SAPG), corresponds to a proximal gradient algorithm in which the gradient of the likelihood is approximated by a stochastic approximation technique.Finally, we present two statistical modeling works realized during this thesis
37

Schmitt, Bénédicte. "Conception de techniques d'interaction mixtes dédiées aux environnements virtuels hétérogènes : approche centrée sur les usages et guidée par les modèles." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2460/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les environnements 3D sont de plus en plus prégnants dans notre quotidien (jeux, situations culturelles ou applications professionnelles). En parallèle, de nouvelles techniques d'interaction émergent sans cesse dans le but de faciliter l'interaction de l'utilisateur avec les systèmes. Des évaluations sont généralement mises en place afin de tester la mise en œuvre d'une technique d'interaction dans un environnement type pour des tâches élémentaires (e. G. Sélection ou navigation) et déterminer son adéquation en termes de performance et de satisfaction. Nos travaux visent à proposer une méthode d'évaluation en environnement virtuel 3D qui s'appuie sur une adaptation de la norme ISO 9241-9. Pour répondre à des problématiques portées par les systèmes à multi-vues liées, nous avons également adapté la norme ISO 9241-9 à un environnement hétérogène mêlant 2D et 3D
3D environments are increasingly present in our life (games, cultural situation, or professional applications). At the same time, new interaction techniques continuously appear to improve the user interaction with systems. Evaluations are usually proposed to assess the implementation of an interaction technique in a specific type of environment for elementary tasks (e. G. Selection or navigation) to determine the consistency of the technique in terms of performance and satisfaction. Our works aim at defining an evaluation method in 3D environment that is based on the standard ISO 9241-9. To answer to issues of linked multi-views systems, we adapt the standard ISO 9241-9 to a heterogeneous environment that mixes 2D and 3D
38

Charveriat, Mathieu. "Développement de modèles cellulaires infectés par des prions humains et recherche de molécules thérapeutiques." Paris 6, 2009. http://www.theses.fr/2009PA066145.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il persiste actuellement un risque de santé publique, lié à la transmission iatrogène des maladies à Prions, notamment par transfusion sanguine. De plus, aucune thérapeutique n’est à ce jour efficace, et les phénomènes de susceptibilité cellulaire à l’infection demeurent pour le moment peu caractérisés. Il est donc essentiel de mieux comprendre les raisons pour lesquelles seuls certaines cellules répliquent les Prions, et de développer de nouveaux traitement. En premier lieu, ce projet envisage de chercher de nouvelles molécules efficaces contre ces Prions. Lors du criblage de la chimiothèque de l’ICSN, nous avons découvert deux types d’inhibiteurs de la réplication des Prions en culture cellulaire. Un nouveau mécanisme de déstabilisation du précurseur du Prion a été mis en évidence. En second lieu, ce travail de thèse vise à mieux appréhender les phénomènes de susceptibilité cellulaire à l’infection par les Prions humains. Les modèles exprimant la PrP humaine, en dépit de nombreuses tentatives, se sont révelés résistants aux Prions humains, en revanche nous avons démontré qu’une lignée murine pouvait répliquer d’une façon subchronique les Prions humains
39

Vieilly, Claude. "Etude de quelques méthodes de recherche de Legionella dans l'environnement : application à la surveillance de réseaux de distribution d'eau." Lyon 1, 1985. http://www.theses.fr/1985LYO11684.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Dib, Mohammad. "Tabu-NG : hybridation de programmation par contraintes et recherche locale pour la résolution de CSP." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2010. http://tel.archives-ouvertes.fr/tel-00607503.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un très grand nombre de problèmes combinatoires appartient à la famille des problèmes de satisfaction de contraintes (Constraint Satisfaction Problem ou CSP) : configuration, ordonnancement, affectation de ressources... Ces problèmes partagent une description commune qui autorise en général une modélisation claire et intuitive. Dans cette thèse, nous avons proposé et étudié une nouvelle méthode de résolution hybride pour les CSPs. Nous avons nommé cette méthode Tabu-NG pour Tabu Search based on NoGood. Le nom est un peu réducteur car il s'agit d'une hybridation d'algorithme de filtrage, de propagation de contraintes, de Recherche Tabou et de gestion de nogoods. La méthode a été appliquée sur deux types de problèmes. Le premier est l'affectation des fréquences (FAP) dans les réseaux de radiocommunications militaires, en particulier les problèmes proposés de 1993 (instances du projet européen CALMA) jusqu'à 2010 (instances d'un projet DGA). Le deuxième est le problème académique de k-coloration de graphes sur les instances DIMACS. La méthode a amélioré quelques meilleurs scores connus actuellement. Dans les deux problèmes nous avons traité des contraintes unaires et binaires, ainsi que des contraintes n-aires et de l'optimisation de fonction sous contraintes pour le FAP. Les principes de Tabu-NG sont généraux et elle peut s'appliquer sur d'autres CSP. Elle peut par ailleurs accueillir des heuristiques spécifiques aux problèmes, nous l'avons pratiqué sur les problèmes cités, et en ce sens nous pensons pouvoir qualifier la méthode de métaheuristique sans abuser de cette définition.
41

El, Khaoulani Rachid. "Prédiction fiable de l'endommagement ductile par la méthode des éléments finis mixtes : endommagement non local et adaptation de maillage." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00566805.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est le développement d'un modèle numérique fiable et précis pour prédire l'évolution de l'endommagement jusqu'à la rupture dans une structure soumise à des grandes déformations plastiques. Ces développements contribuent à l'enrichissement d'une librairie EF parallèle appelée CIMLib. Pour mieux traiter l'incompressibilité des déformations plastiques, une approximation éléments finis mixtes vitesse-pression avec une discrétisation stabilisée P1+/P1 est utilisée pour la résolution des équations mécaniques. L'intégration d'une loi de comportement élastoplastique endommageable dans cette approximation a été largement abordée. L'évolution de l'endommagement obéit à un modèle de Lemaitre enrichi, où les phénomènes dissipatifs sont couplés et qui prend en compte la nature des sollicitations et l'effet de refermeture des fissures en compression. L'approximation éléments finis avec un comportement adoucissant est fortement dépendante de la discrétisation spatiale dans la phase post-critique. Pour pallier à ce problème, nous avons adopté une méthode de régularisation non locale du gradient implicite. Nous avons choisi un exemple où la localisation est très marquée en bande de cisaillement pour montrer la fiabilité de notre modèle à prédire l'évolution de l'endommagement jusqu'à la rupture de la structure. Un autre axe principal de cette thèse est l'adaptation anisotrope de maillage au phénomène d'endommagement. Une stratégie d'adaptation anisotrope de maillage pilotée par un estimateur de l'erreur d'interpolation a été utilisée afin d'améliorer la précision pour l'endommagement avec un temps de calcul minimal. L'apport de l'adaptation de maillage permet de garantir une meilleure prédiction de l'évolution de l'endommagement jusqu'à la rupture. Son utilisation nous a permis de retrouver numériquement des modes de rupture observés expérimentalement. Dans le cadre de grands cas industriels irréductibles, par exemple à cause de la croissance de l'endommagement, le temps de calcul peut devenir pénalisant. Nous nous sommes donc intéressé à l'accélération de la résolution des grands systèmes linéaires issus d'une approximation éléments finis par les méthodes multigrilles. Un préconditionneur multigrille géométrique a été mis en place. Les premières validations ont montré que ce préconditionneur permet d'avoir une complexité quasi-linéaire en fonction des degrés de liberté. Le modèle numérique ainsi développé peut servir à la simulation des procédés de pose de points d'assemblage des tôles par déformations plastiques, à l'étude de leur tenue mécanique en les soumettant à des sollicitations variées, et à la simulation des procédés de mises en forme à froid des corps solides (emboutissage, forgeage, hydroformage, semi découpe ou découpe des tôles ...)
42

Tandalam, Aswinikumar Anuragini. "Bridging cultural discontinuities in global virtual teams : role of cultural intelligence." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès récents des technologies de l'information et de la communication (TIC) ont joué un rôle déterminant dans la transformation de la plupart des pratiques de travail traditionnelles et les structures organisationnelles. Le travail d'équipe équipes virtuelles mondiales/internationales (EVI) est un exemple. Les précédentes recherches sur les (EVI) identifient comme limite les différences culturelles et cette question doit être traitée pour une meilleure efficience de l’équipe virtuelle. Prenant appui sur l'étude de la théorie de la discontinuité de l'organisation (TDO), nous proposons l'intelligence culturelle (IC) comme l'une des modalités à travers lesquelles les discontinuités culturelles dans les EVI pourraient éventuellement être comblées. En situant le débat dans le modèle transactionnel du stress et de l'adaptation (MTSA), nous développons un réseau nomologique d’IC décrivant les interrelations et les mécanismes à travers lesquels différentes dimensions d’IC influencent la performance des EVI. En outre, tirant parti de la théorie de l'adaptation compensatoire (TAC) le rôle important de l'adaptation structurelle (IC d'adaptation) est l'hypothèse, en plus de l'adaptation comportementale (comportement d’IC), dans le cadre de l’IC proposée pour le contexte de l’EVI. Pour tester le modèle conceptuel « théorisé », l'étude utilise une conception séquentielle de la recherche reposant sur les méthodes mixtes
Recent advances in information and communication technologies (ICTs) have been instrumental in transforming many of the traditional work practices and organizational structures. Global virtual teams (GVTs) are one such example. Prior research on GVT identifies ‘cultural discontinuity’ as a salient boundary that needs to be bridged for better performance. Grounding the study in organizational discontinuity theory (ODT), in this research, we propose cultural intelligence (CQ) as one of the modalities through which cultural discontinuities in GVTs could possibly be bridged. Situating the discussion, in transactional model of stress and coping (TMSC), we develop a CQ nomological network describing the inter-relationships and mechanisms through which different CQ dimensions influence GVT performance. Further, leveraging compensatory adaptation theory (CAT) the significant role of structural adaptation (role structure adaptation) is hypothesized, in addition to behavioral adaptation (CQ behavior), in the proposed CQ framework for the GVT context. For testing the theorized conceptual model, the study uses a sequential mixed methods research design comprising a quantitative study followed by a qualitative The integrated findings enable us to propose a 'substantive theory of CQ for GVT performance' thereby making significant contributions to both theory and practice
43

Robin, Tiphaine. "Mise au point de méthodes de recherche large de xénobiotiques par chromatographie liquide couplée à la spectrométrie de masse en tandem." Thesis, Limoges, 2020. http://www.theses.fr/2020LIMO0052.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans de nombreux contextes de toxicologie clinique, le screening ou criblage toxicologique est la première analyse effectuée chez un patient, lorsque la nature ou la présence même de médicaments ou de toxiques est totalement inconnue. Le plus souvent, le screening précède la mise en œuvre de méthodes quantitatives spécifiques. Les méthodes d’extractions peuvent être diverses mais celles-ci restent en général manuelles.Les objectifs de nos travaux étaient de développer des méthodes de screening qualitatives, quantitatives et automatisées avec un spectromètre de masse en tandem (modèle 8060 ; Shimadzu) et une préparateur automatisé d’échantillons (CLAM-2000 ; Shimadzu).Des bibliothèques regroupant les paramètres spectraux et chromatographiques d’environ 1 300 molécules d’intérêt en toxicologie ont été construites. Sur la base de ces bibliothèques plusieurs méthodes de screening faisant appel à différents modes d’acquisition spectrales ont été développées et évaluées (MTS, MRM, MRM-SpM,…). Différentes méthodes d’extraction ont été également mises en place : préparation manuelle basée sur l’utilisation des sels QuEChERS et approche entièrement automatisée grâce au CLAM-2000.Ses approches ont été appliquées à des échantillons réels et ont vu leurs performances comparées à celles de méthodes déjà accréditées selon les exigences de la norme ISO-15189. Elles pourraient notamment être positionnées comme des méthodes de première ligne pour des laboratoires travaillant 24h/24 7j/7, dans un contexte d’urgence
Screening methods for compounds of interest in clinical toxicology have been historically employed as first-line analysis to either confirm or exclude the hypothesis of drug overdose, or poisoning with a toxicant. After identification using a screening method, quantification using specific methods is often necessary in a second time to assess the severity of intoxication. This obviously increases the turnaround time and has an impact on patient care. With regards to the rapidity needed to report results in clinical toxicology, sample extraction may be a limiting step. There is no universal extraction procedure for human samples prior to screening analysis Our goal were to developed screening procedures using a programmable liquid handler (CLAM-2000; Shimadzu®) directly coupled to a liquid chromatography - tandem mass spectrometry (LC-MS 8060; Shimadzu®).Libraries with spectral and chromatographic parameters were built for about 1300 compounds selected based on their relevance to, and occurrence in, clinical toxicology. Using these libraries, screening methods were developed using different acquisition modes.Two different extraction procedures were developed: one using QuEChERS salts, another using the CLAM-2000.Each approach was validated according to the ISO 15189 requirements and was applied to real patient samples. The different screening methods yielded high confidence in compound detection and should be useful in core labs facing clinical toxicology situations where rapid and reliable results are needed
44

Nasser, Hanan. "Méthode de résolution du M4-5n par éléments finis mixtes pour l’analyse des chaussées avec discontinuités." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les chaussées subissent des sollicitations liées au trafic et au climat conduisant à leur dégradation, par fissuration notamment. Il est nécessaire dans le contexte actuel de pouvoir modéliser le comportement de ces structures multicouches endommagées afin de prévoir leur durée de vie résiduelle ou dimensionner des solutions de renforcement. L’objectif de la thèse est ainsi de proposer un outil de calcul dédié à l'analyse 3D des chaussées fissurées ou comportant des discontinuités. L’approche retenue repose sur la modélisation simplifiée d’une chaussée par un empilement de plaques du Modèle Multi-particulaire des Matériaux Multicouches à 5n équations d’équilibre (M4-5n). Un outil de calcul rapide de référence de chaussées 2D fissurées et une méthode de résolution générale du M4-5n par Eléments Finis mixtes sont développés. Le point de départ de la méthode de résolution est l’écriture, pour le M4-5n, du principe variationnel basé sur le théorème de l'énergie complémentaire où la condition de contraintes statiquement admissibles est assurée à partir de multiplicateurs de Lagrange. La discrétisation des efforts généralisés utilise des espaces d’interpolation permettant le bon conditionnement du système d’équations algébriques à résoudre et garantissant la stabilité de la solution. La méthode est implémentée dans FreeFem++. Elle ramène le problème 3D initial à une modélisation EF 2D et conduit à des valeurs finies des efforts généralisés au niveau des fissures ou décollement d’interface. L’outil de calcul final ainsi développé est validé et appliqué à l’étude de la réponse d’une structure fissurée,représentative d’une chaussée testée en vraie grandeur sur le site de l’IFSTTAR
Pavements are multilayer structures which undergo cracking distress due to traffic and climatic factors. It is important nowadays to be able to model the mechanical response of such damaged pavements in order to assess their residual lifetime or to design reinforcement solutions. In this context, the present thesis aims at developing a numerical tool dedicated to the analysis of pavements incorporating cracks or discontinuities. In the developed approach, the pavement structure is modeled as a stacking of “plate” elements of typeM4-5n (Multi-Particle Models of Multilayer Materials) which considers 5n equilibrium equations. A reference quick 2D calculation tool for cracked pavements and a general solving of M4-5n by the mixed Finite Element (FE) method was developed. The starting point for this method is the derivation for M4-5n of the variational principle based on the complementary energy theorem whose condition of statically admissible stress is taken into account using Lagrange multipliers. Discretization of the generalized stresses involves interpolation spaces, proposed to avoid ill-conditioned system of algebraic equations after discretization and to insure stability of the solution. The developed method is implemented in a FreeFem++ script. In this method, the initial 3D problem can be handled through FE simulations in 2D and finite values of the generalized stresses are obtained at crack and interlayer debonding locations. The developed numerical tool was validated and applied to the study of the mechanical response of a structure with cracks representative of a pavement tested underfull-scale conditions during an accelerated fatigue test performed at IFSTTAR
45

Philibert, Aurore. "Méthodes de méta-analyse pour l'estimation des émissions de N2O par les sols agricoles." Phd thesis, AgroParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00913760.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O.
46

Al, Kharboutly Mira. "Résolution d’un problème quadratique non convexe avec contraintes mixtes par les techniques de l’optimisation D.C." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH06/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre objectif dans cette thèse est de résoudre un problème quadratique binaire sous contraintes mixtes par les techniques d'optimisation DC. Puisque l'optimisation DC a prouvé son efficacité pour résoudre des problèmes de grandes tailles dans différents domaines, nous avons décidé d'appliquer cette approche d'optimisation pour résoudre ce problème. La partie la plus importante de l'optimisation DC est le choix d'une décomposition adéquate qui facilite la détermination et accélère la convergence de deux suites construites. La première suite converge vers la solution optimale du problème primal et la seconde converge vers la solution optimale du problème dual. Dans cette thèse, nous proposons deux décompositions DC efficaces et simples à manipuler. L'application de l'algorithme DC (DCA) nous conduit à résoudre à chaque itération un problème quadratique convexe avec des contraintes mixtes, linéaires et quadratiques. Pour cela, il faut trouver une méthode efficace et rapide pour résoudre ce dernier problème à chaque itération. Pour cela, nous appliquons trois méthodes différentes: la méthode de Newton, la programmation semi-définie positive et la méthode de points intérieurs. Nous présentons les résultats numériques comparatifs sur les mêmes repères de ces trois approches pour justifier notre choix de la méthode la plus rapide pour résoudre efficacement ce problème
Our objective in this work is to solve a binary quadratic problem under mixed constraints by the techniques of DC optimization. As DC optimization has proved its efficiency to solve large-scale problems in different domains, we decided to apply this optimization approach to solve this problem. The most important part of D.C. optimization is the choice of an adequate decomposition that facilitates determination and speeds convergence of two constructed suites where the first converges to the optimal solution of the primal problem and the second converges to the optimal solution of the dual problem. In this work, we propose two efficient decompositions and simple to manipulate. The application of the DC Algorithm (DCA) leads us to solve at each iteration a convex quadratic problem with mixed, linear and quadratic constraints. For it, we must find an efficient and fast method to solve this last problem at each iteration. To do this, we apply three different methods: the Newton method, the semidefinite programing and interior point method. We present the comparative numerical results on the same benchmarks of these three approaches to justify our choice of the fastest method to effectively solve this problem
47

Van, Nifterik Laurent. "Développement de méthodes analytiques adaptées à la recherche des mécanismes d'ozonation de composés lignocellulosiques : contribution à l'identification des sous-produits solubles en milieu aqueux." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT066G.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les nouvelles reglementations mises en vigueur au niveau mondial exigent que l'industrie papetiere previenne et diminue la formation des organochlores dans les effluents d'usine. Les modifications apportees aux procedes de blanchiment par l'utilisation en particulier de l'ozone doivent grandement contribuer a atteindre les exigences de la reglementation proposee. Cependant, l'ozone est un oxydant tres puissant. Aussi, le but de ces recherches est de contribuer a l'approfondissement des connaissances des mecanismes reactionnels engendres par l'ozone sur la cellulose et les hemicellulose et d'en minimiser les effets. Plusieurs substrats tels que le glucose, le cellobiose, la cellulose et la pate kraft sont ozones en fonction de differentes conditions (charge en ozone, temperature d'ozonation. . . ). La chromatographie ionique est utilisee pour determiner et identifier les sous-produits d'ozonation solubles en milieu aqueux et en particulier la chromatographie d'echange d'anions haute performance couplee a une detection amperometrique pulsee, methode bien adaptee a l'etude des hydrates de carbone. Les principaux resultats montrent l'efficacite de cette technique pour suivre la degradation de la cellulose et des hemicelluloses par l'ozone. Cependant, les oligosaccharides non identifies doivent etre purifies par chromatographie semi-preparative et identifies par des methodes telles que la resonance magnetique nucleaire et la spectrometrie de masse par bombardement par atomes acceleres. La degradation de la cellulose et des hemicelluloses, conduisant aux oligosaccharides et monosaccharides (oxydes et/ou non oxydes), peut etre due soit a des mecanismes radicalaires (dus a la decomposition de l'ozone) soit a une attaque electrophile de l'ozone. Neanmoins, les resultats montrent que la cellulose est moins degradee a faibles temperatures d'ozonation. En fait, les resultats demontrent clairement que les concentrations relativement elevees de xylose (dans le cas de l'ozonation de la cellulose) et d'arabinose (dans le cas de l'ozonation de la pate kraft) comparees a celles du glucose ne peuvent etre expliquees que par une attaque preferentielle de l'ozone sur les polysaccharides formes majoritairement de pentoses
48

Taconnat, Jean-Marc. "Contribution à la diversification des productions de dérivés du saccharose : recherche de méthodes de séparation préparatives de mélanges de sucres simples et oligomères." Paris 12, 1991. http://www.theses.fr/1991PA120053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les procedes biotechnologiques de valorisation du saccharose aboutissent a la production de melanges complexes, impliquant des etapes de purification des produits recherches. Dans le cas de melanges de sucres, ou plus generalement de solutes neutres polyhydroxyles, la chromatographie sur resines echangeuses de cations est employee en tant que technique de separation preparative. La separation obtenue est souvent interpretee par la formation selective de complexes entre ces composes et les cations contenus dans la resine. Nous avons etudie la complexation ionique des sucres en solution aqueuse, et mene des essais preparatifs de separations de melanges de sucres simples et oligomeres par chromatographie sur resines echangeuses de cations. Les resultats obtenus indiquent que la separation resulterait d'une discrimination par la taille par le reseau macromoleculaire. Ce mecanisme a alors pu etre transpose a une technologie membranaire par utilisation de la technique de diafiltration avec un equipement d'osmose inverse. Parmi les autres ions etudies, seuls les anions borates ont presente une forte affinite, par ailleurs selective, pour les sucres ou les polyols. Cette propriete a permis alors de realiser des separations preparatives de melanges de tels composes par chromatographie sur resine echangeuse d'anions sous forme borate. La stabilite des complexes permet meme une migration de ceux-ci sous l'influence d'une force electromotrice a travers une membrane dense, avec un equipement d'electrodialyse. L'adsorption de sucres sur des charbons actifs granulaires, dont la selectivite semble etre liee a la distribution de la taille des micropores de ces supports, permet egalement des separations preparatives de melanges monosaccharides-oligosaccharides. La recuperation non destructive des sucres est effectuee par desorption a l'aide de solutions hydroalcooliques. Les differents procedes etudies permettent donc de proposer un choix de techniques de separation preparatives, en fonction de certains criteres imposes par une demande industrielle, tels que composition des solutions, cout du procede. . .
49

McKay, Samuel. "Identity Change and Development as a Potential Explanatory Mechanism of the Outcomes of Student Exchange Experiences." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0160.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'enseignement supérieur constitue un espace de vie propice au développement de l'identité des adultes en émergence. Au sein de cet espace, l'échange étudiant international prend de plus en plus d’ampleur. La littérature montre que les échanges étudiants internationaux sont liés à de nombreux changements positifs, notamment en améliorant la carrière professionnelle, le bien-être et le fonctionnement sur le long terme. Toutefois, les recherches dans ce domaine n’explorent pas les processus sous-jacents à ces changements. Sur la base des modèles de l’identité (i.e., statuts, ressources et narratifs) et des théories d’acculturation, cette thèse s’est donnée pour objectif d’expliquer les mécanismes sous-jacents aux changements pendant l'échange étudiant international grâce à un modèle intégratif de l’identité. Dans ce modèle, le développement de l'identité sous forme d'exploration et d'engagement dans des alternatives identitaires est considéré comme la principale explication sous-jacente aux changements. Pour tester ce modèle, deux études ont été menées sur la base d'une méthodologie mixte associant des approches quantitative et qualitative. La première étude visait à tester le modèle intégratif de l’identité auprès d’étudiants australiens et français. Les participants ont été invités à remplir une série de questionnaires mesurant leur identité, leur acculturation, leur bien-être, leur vocation professionnelle et leur personnalité agentique avant (australiens, N = 203 ; français, N = 233), pendant (australiens, N = 111 ; français, N = 147) et après (australiens, N = 96 ; français, N = 128) leur échange étudiant international. Des modèles longitudinaux multiniveaux et des modèles croisés-décalés ont montré que l'échange étudiant international favorise l'engagement identitaire et l'exploration de surface de l'identité, tout en diminuant l'exploration ruminative. Concernant les mécanismes sous-jacents aux changements, le pouvoir explicatif du modèle intégratif de l’identité reste mitigé. Il a été démontré que l'engagement identitaire est lié à la croissance de la personnalité agentique et de la vocation professionnelle, mais qu'il joue un rôle moindre dans l'amélioration de l'intelligence culturelle et de la satisfaction de vie. L'objectif de la deuxième étude était d'explorer la manière dont les étudiants conceptualisent les processus de changement et de développement pendant l'échange étudiant international. Des entretiens ont été menés auprès d’étudiants inscrits dans la première étude (australiens, N = 10 ; français, N = 10). L'analyse thématique a permis d'identifier deux grands thèmes de changement et les expériences les ayant favorisés qui ont permis aux participants de se sentir plus confiants, tout en clarifiant leur perception d’eux-mêmes et leur vision du monde. Trois thèmes de facteurs d'influence ont montré que l'attitude des étudiants, leur expérience antérieure et leur environnement familial peuvent influencer ces bénéfices. Nos résultats suggèrent que l'identité est au centre du développement pendant l'échange étudiant international et corroborent le modèle intégratif de l’identité proposé. Les deux études successives de cette thèse fournissent de nouvelles explications sur les mécanismes de changement pendant l'échange étudiant international. Notre recherche souligne l'importance de l'identité dans le processus de développement et ouvre de nouvelles perspectives de recherche et d’intervention. De futurs travaux sont nécessaires pour continuer à évaluer le pouvoir explicatif potentiel du modèle proposé auprès d’un plus large éventail de variables et de cohortes. Néanmoins, en utilisant un cadre conceptuel identitaire, ce travail de thèse présente une première étape importante dans l'identification et l'évaluation des processus de changement pendant l'échange étudiant international
Higher education serves as a key context for identity development for emerging adults. Within this space, student exchange is becoming increasingly important. Studies show that exchange is related to numerous positive outcomes such as career success, intercultural skills, wellbeing, and positive functioning. However, relatively little is known about the mechanisms that promote development. In this thesis, a model that integrates the status, resource, and narrative models of identity along with theories of acculturation is proposed to explain the underlying mechanisms of change during exchange. In the model, identity development in the form of exploring and committing to identity alternatives is argued to be the primary underlying explanation for the outcomes of exchange. To test this model two studies were conducted based on a mixed methods framework. The first study assessed the integrated identity model with Australian and French students who completed a series of questionnaires measuring their identity, acculturation, wellbeing, career clarity, and the agentic personality before (Australians N = 203, French N = 233), during (Australian N = 111, French N = 147), and after their exchange (Australians N = 96, French N = 128). Longitudinal multilevel models and random intercept cross-lagged panel models demonstrated that exchange supported increases in identity commitment and exploration in breadth while simultaneously decreasing ruminative exploration. In terms of the mechanisms of change, the explanatory power of the identity models was mixed. Identity commitment was shown to be related to growth in the agentic personality and career calling but played a smaller role in students enhanced cultural intelligence and life satisfaction. The aim of the second study was to explore how students conceptualise the processes of change and development during exchange. Interviews were conducted with a subsample of participants (Australians N = 10, French N = 10) from the first study. Thematic analysis identified two major themes of change and associated driving experiences, which related to participants feeling more confident, while also clarifying their self-perceptions and worldviews. Three themes of influencing factors showed that students’ attitudes, previous experience, and family environments could affect exchange outcomes. The findings suggest that identity is central to development during exchange with the results aligning with the proposed identity model. The combined findings of this thesis provide novel explanations for the mechanisms of change during exchange. The research highlights the importance of identity in the development process and points to opportunities for both future studies and interventions. Further work is needed to assess explanatory potential power of the proposed model with a broader range of variables and cohorts. Nevertheless, this thesis presents an important first step in identifying and assessing the processes of change during student exchange using an identity framework
50

Bentahar, Omar. "Une approche contingente et dynamique des rôles du chef de projet : le cas de projets de construction de grands barrages au Maroc." Caen, 2011. http://www.theses.fr/2011CAEN0680.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La littérature en management de projet est dominée par la théorie normative qui se focalise sur les méthodes et les techniques de gestion, et les facteurs clés de succès. Elle occulte ainsi peu ou prou la contingence du management de projet et les problématiques organisationnelles et de gestion des ressources humaines (Shenhar, 2001). Ce constat théorique couplé au constat empirique relatif à l’échec des grands projets d’infrastructure sont à l’origine de cette recherche sur les rôles du chef de projet dans les projets de construction de grands barrages au Maroc. Notre thèse pose les deux questions suivantes : comment expliquer la diversité des rôles du chef de projet dans les projets de construction de grands barrages ? Comment évoluent les rôles du chef de projet et les caractéristiques des projets pendant le déroulement du projet ? Nous avons alors d réalisé une étude empirique sur trente trois projet fondée sur une méthodologie mixte qualitative et quantitative. Les résultats mettent en évidence des relations entre les rôles du chef de projet et les caractéristiques contingentes du projet (NTCP) , et montrent que les rôles du chef de projet évoluent en fonction de l’évolution des caractéristiques contingentes du projet (TCP). Cette recherche contribue au développement d’une théorie contingente et dynamique des rôles du chef de projet. Elle remet ainsi en question les fondations universelles du management de projet. D’un point de vue managérial, elle peut aider les chefs de projets à hiérarchiser et à adapter leurs rôles aux caractéristiques contingentes du projet, et les DRH à affecter les chefs de projets adéquats aux différents types de projets
The project management literature is dominated by the normative theory which is focused on the methods and management techniques and the key factors of success. Thus, it occults more or less the project management contingency and both the organizational and human resources management problematics (Shenhar, 2001). This theoretical observation coupled with the empirical one related to the failure of the major infrastructure projects are at the origin of this research on the roles of the projects managers in the constructions projects of large dams in Morocco. Our thesis asks the two following questions: how can we explain the roles diversity of the project manager in the large dams construction? How do the project manager’s roles and the characteristics of the project evolve during the course of the project? So we have achieved an empirical study on thirty three projects founded on mixed methods ; qualitative and quantitative. The results underscore the relation between the project manager’s roles and the contingent characteristics of the project (NTCP), and show that the project manager’s roles evolve I, function of the evolution of the contingent characteristics of the project (TCP). This research contributes to the development of a contingent and dynamic theory of the project manager’s roles. Thus, it calls into question the universal foundations of the project management. From the managerial point of view, it can help the project managers to organize their roles into a hierarchy and to adapt them to the contingent characteristics of the project, and the human resources directors in appointing the right project managers to different types of projects

До бібліографії