Academic literature on the topic 'Optimisation dirigée par les données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Optimisation dirigée par les données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Optimisation dirigée par les données":

1

Beaudoin, Carl. "Perceptions des enseignants et des garçons à l’égard de la relation enseignant-élève au secondaire : quand les stéréotypes de genre s’immiscent en classe." Canadian Journal of Education/Revue canadienne de l'éducation 44, no. 3 (September 20, 2021): 848–74. http://dx.doi.org/10.53967/cje-rce.v44i3.4825.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article vise à identifier les stéréotypes de genre véhiculés par les enseignants de sexe masculin et les garçons du secondaire dans leurs perceptions déclarées à l’égard de leurs relations enseignants-élèves (REÉ). Se situant dans une approche qualitative interprétative, cette étude met en évidence les propos de 18 enseignants et de 86 garçons du secondaire, collectés par le biais de trois stratégies de collecte de données, soit l’entrevue semi-dirigée, le groupe de discussion et le questionnaire d’enquête. Les données qualitatives obtenues ont été analysées à l’aide des catégories conceptualisantes. Les principaux résultats mettent en lumière que certains enseignants mentionnent communiquer ou intervenir auprès des garçons sur la base d’intérêts stéréotypés masculins. Quant aux garçons, plusieurs d’entre eux font ressortir la distanciation émotive des enseignants à leur égard. Mots-clés : stéréotypes de genre, relation enseignant-élève, intérêts stéréotypés, masculinité traditionnelle, intervention genrée
2

Carignan, Isabelle. "La mobilisation de stratégies de lecture sur trois formes de documents en 3e secondaire." Nouveaux cahiers de la recherche en éducation 12, no. 2 (July 30, 2013): 161–78. http://dx.doi.org/10.7202/1017465ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les adolescents mobilisent-ils les mêmes stratégies de lecture à l’écran et sur papier ? Cet article vise à explorer cette question en considérant les stratégies déclarées par 12 élèves de 3e secondaire lors de la lecture d’un texte argumentatif sur trois formes de documents (texte papier, texte linéaire à l’écran et hypertexte). Les outils méthodologiques utilisés sont les suivants : 1) la technique oculométrique; 2) l’entrevue libre et la verbalisation rétrospective; et 3) l’entrevue semi-dirigée. Les résultats ont, entre autres, démontré que les sujets semblent avoir déclaré davantage de types de stratégies diversifiées sur le texte papier. De plus, les données ont montré que les sujets semblent avoir fait un transfert de stratégies, du papier à l’écran, lors de la lecture de documents électroniques.
3

Pogačnik, Vladimir. "Analyse linguistique et approches de l'oral - Recueil d'études offert en hommage à Claire Blanche-Benveniste (M.Bilger - K.van den Eynde -F.Gadet, éds.; Leuven/Paris, 1988: Peeters, Orbis/supplementa)." Linguistica 38, no. 2 (December 1, 1998): 212–13. http://dx.doi.org/10.4312/linguistica.38.2.212-213.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Claire Blanche-Benveniste, l'âme des recherches sur le français parlé, menées depuis une bonne vingtaine d'années à l'Université de Provence, et directrice de recherche à l'Ecole Pratique des Hautes Etudes, s'est vu offrir récemment cet ouvrage collectif, édité par ses proches collaborateurs Mireille Bilger, Karel van den Eynde et Françoise Gadet, aidés de Piet Mertens pour la mise au point des textes définitifs. Le recueil de contributions qui intéresseront surtout les spécialistes dans le domaine de la description du français oral est paru dans la prestigieuse collection dirigée par Pierre Swiggers qui a enrichi ce projet en élaborant une bibliographie exhaustive des travaux de sa collègue aixoise. "L'ouvrage, organisé en deux grandes parties ("Méthodologie et théorisation" et "Description"), se fixe comme but principal de préciser les concepts fondamentaux et les procédures en linguistique descriptive, dans leur confrontation à la diversité des données, et ce en relation directe avec les travaux de Claire Blanche-Benveniste, mais aussi dans une perspective plus large."
4

Eichholzer and Camenzind. "Übergewicht, Adipositas und Untergewicht in der Schweiz: Resultate der Nutri-Trend-Studie 2000." Praxis 92, no. 18 (April 1, 2003): 847–58. http://dx.doi.org/10.1024/0369-8394.92.18.847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'Étude Nutri-Trend 2000 dirigée par Nestlé Suisse SA en collaboration avec l'Office Fédéral de la Santé, a permis d'obtenir des données actuelles du poids et de la stature de la population suisse âgée de 18–74 ans par un échantillonnage représentatif (n = 1004) pris au hasard. 3% des participants à cette étude ont une insuffisance de poids (BMI < 18.5 kg/m2), 66% ont un poids normal (BMI 18.5–24.9 kg/m2), 26% ont un excédent de poids (BMI 25– 29.9 kg/m2) et 5% sont obèses (BMI >= 30 kg/m2). Les connaissances et attitudes alimentaires ainsi que les informations et le comportement s'y rapportant ne divergent guère entre les différentes catégories de poids. Toutes ces catégories, mais particulièrement le petit tiers ayant un excédent de poids trop, dont un quart ne s'intéresse absolument pas aux questions nutritionnelles, devraient être mieux informées en ce qui concerne la relation étroite entre l'alimentation et la santé. Elles devraient être encouragées à se nourrir de manière plus équilibrée et à avoir plus d'activités physiques pour maintenir leurs poids voire réduire leur excédent de poids.
5

Proulx-Boucher, Karène, Mylène Fernet, Martin Blais, Joseph Josy Lévy, Joanne Otis, Jocelyne Thériault, Johanne Samson, Guylaine Morin, Normand Lapointe, and Germain Trottier. "Bifurcations biographiques : l’expérience du dévoilement du diagnostic du point de vue d’adolescents infectés par le VIH en période périnatale." Enfances, Familles, Générations, no. 21 (July 22, 2014): 197–215. http://dx.doi.org/10.7202/1025966ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cas de la transmission de la mère à l’enfant du VIH, l’un des principaux enjeux concerne le dévoilement du diagnostic aux jeunes infectés (Champion et al., 1999; Murphy et al., 2002; Wiener et al., 2007), qui pourrait être vécu comme un point de bifurcation biographique. L’objectif est d’explorer l’expérience du dévoilement du diagnostic du point de vue d’adolescents vivant avec le VIH depuis la naissance. Vingt-neuf jeunes (10-18 ans) VIH+ ont accordé une entrevue individuelle semi-dirigée portant sur le dévoilement du statut sérologique. Les données recueillies ont fait l’objet d’une analyse de contenu (Paillé et Mucchielli, 2005; Sabourin, 2008). Le dévoilement du statut sérologique s’inscrit dans une trajectoire en trois temps : 1) une réalité cachée où les adolescents ignorent leur statut sérologique; 2) une réalité enfin dévoilée où ils apprennent, vers l’âge de 11 ans, qu’ils sont infectés par le VIH et; 3) une réalité à intégrer progressivement où le dévoilement participe à leur construction identitaire personnelle et sociale. Le dévoilement s’inscrit dans une continuité biographique en légitimant les traitements ARV reçus alors qu’une transformation progressive semble être envisagée par les jeunes quant à leur intimité et leur sexualité.
6

Vuillaume, M. L., F. Kwiatkowski, N. Uhrhammer, Y. Bidet, and Y. J. Bignon. "Analyse de données d’expression transcriptomiques rythmées par des gènes-horloge : approche méthodologique et optimisation." Pathologie Biologie 61, no. 5 (October 2013): e89-e95. http://dx.doi.org/10.1016/j.patbio.2010.12.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Salami, Bukola, Benjamin Denga, Robyn Taylor, Nife Ajayi, Margot Jackson, Msgana Asefaw, and Jordana Salma. "L’accès des jeunes Noirs de l’Alberta aux services en santé mentale." Promotion de la santé et prévention des maladies chroniques au Canada 41, no. 9 (September 2021): 271–80. http://dx.doi.org/10.24095/hpcdp.41.9.01f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction Cette étude vise à examiner les obstacles qui limite l’accès et le recours des jeunes Noirs aux services en santé mentale en Alberta. Méthodologie Pour comprendre l’accès aux soins de santé des jeunes Noirs en Alberta, tant ceux qui sont nés au Canada que ceux qui y ont immigré, nous avons utilisé une méthodologie de recherche action dirigée par les jeunes dans le cadre d’un modèle d’autonomisation des jeunes qui s’inscrit dans la théorie de l’intersectionnalité. Le projet de recherche a été dirigé conjointement par un comité consultatif composé de dix jeunes, qui ont donné des conseils et contribué concrètement à la recherche. Sept membres du comité consultatif ont également recueilli des données, animé conjointement des cafés-causeries, analysé les données et contribué aux activités de diffusion. Nous avons réalisé des entretiens individuels approfondis et organisé quatre groupes de discussion de type café-causerie avec 129 jeunes au total. Au cours des cafés-causeries, les jeunes ont pris l’initiative de cibler leurs sujets de préoccupation et d’expliquer les répercussions de ceux-ci sur leur vie. Grâce à un codage rigoureux et à une analyse thématique des données, à la réflexivité et à la vérification par les membres, nous nous sommes assurés de la fiabilité de nos résultats empiriques. Résultats Nos résultats mettent en lumière les principaux obstacles susceptibles de limiter l’accès et le recours des jeunes Noirs aux services en santé mentale, notamment le manque d’inclusion et de sécurité culturelles, le manque de connaissances et d’information sur les services en santé mentale, le coût des services en santé mentale, les obstacles géographiques, la stigmatisation et le jugement, de même que les limites de la résilience. Conclusion Les résultats confirment l’existence d’obstacles divers et cumulatifs qui, ensemble, perpétuent un accès et un recours négativement disproportionnés des jeunes Noirs aux services en santé mentale. D’après notre étude, les intervenants responsables des politiques et des pratiques en matière de santé devraient prendre en compte les recommandations suivantes pour éliminer les obstacles : diversifier le personnel des services en santé mentale, augmenter la disponibilité et la qualité des services en santé mentale dans les quartiers où la population noire est prédominante et intégrer des pratiques antiracistes et des compétences interculturelles dans la prestation des services en santé mentale.
8

Bouchard-Valentine, Vincent. "fonofone pour iPad et iPhone : cadrage historique et curriculaire d’une application québécoise conçue pour la création sonore en milieu scolaire." Les Cahiers de la Société québécoise de recherche en musique 17, no. 1 (April 17, 2018): 11–24. http://dx.doi.org/10.7202/1044666ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La création sonore est une forme de création musicale exploitant les qualités expressives du son en dehors des schèmes traditionnels de la mélodie, de l’harmonie et du rythme mesuré. À partir des années 1960, des pédagogues d’origines diverses — Canada, États-Unis, Angleterre et France — ont proposé des modèles d’enseignement fondés sur différentes démarches de création sonore, mais partageant la visée d’une éducation musicale globale et fondamentale. Ces modèles ont été intégrés à partir du tournant des années 1970 dans les programmes d’études scolaires québécois. Toutefois, malgré les efforts déployés au fil des décennies par le ministère de l’Éducation, la création sonore n’est pas véritablement implantée dans les programmes universitaires de formation à l’enseignement de la musique ni dans les pratiques enseignantes en milieu scolaire. Parmi les outils pédagogiques développés pour la pédagogie de la création sonore, fonofone pour iPad se distingue à double titre. D’une part, il a été spécifiquement conçu pour le milieu scolaire et, d’autre part, sa conception a été pilotée par le compositeur Yves Daoust, une des figures de proue de la musique électroacoustique québécoise. Cet article a pour objectif général de situer l’interface de création fonofone dans le champ de la pédagogie musicale scolaire. Le design méthodologique fait appel à différentes stratégies de recherche. Pour le volet traitant de l’ancrage pédagogique et curriculaire de l’application, une recherche documentaire (Boisvert 2000) dans le champ de l’éducation musicale a permis de recueillir des données sur la pédagogie de la création sonore, de même que sur la lutherie spécialisée qu’elle a engendrée, en France particulièrement. Pour le volet traitant de l’application fonofone, une entrevue semi-dirigée (Van der Maren 2004) avec le concepteur Yves Daoust a permis de retracer les principaux jalons de son développement et d’en cerner les principales caractéristiques. La consultation des archives personnelles du compositeur québécois et l’observation d’animations réalisées avec l’application en milieu scolaire ont permis de compléter la collecte de données. L’ensemble des données recueillies a été soumis à un processus d’analyse de contenu (Bardin 2007).
9

Lafaye, Marie Christine, Georges Louis, and Antoine Wiedemann. "Qualité des données : conception du schéma de la base de données en utilisant l’ingénierie dirigée par les modèles. Un outil de conception de base de données relationnelle utilisant les métamodèles de l'OMG." Ingénierie des systèmes d'information 16, no. 5 (October 30, 2011): 109–42. http://dx.doi.org/10.3166/isi.16.5.109-142.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Cloutier, Frédéric, Guillaume Jalby, Paul Lessard, and Peter A. Vanrolleghem. "Modélisation dynamique du comportement des métaux lourds dans des stations d’épuration." Revue des sciences de l'eau 22, no. 4 (October 22, 2009): 461–71. http://dx.doi.org/10.7202/038325ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Le but de ce travail était de développer un modèle permettant de décrire le comportement des métaux lourds, en plus des polluants traditionnels, dans une station d’épuration par boues activées et pouvant être utilisé pour sa conception et son optimisation. Le modèle, qui considère la sorption des métaux lourds sur des matières en suspension comme processus réactionnel, a été évalué à partir de données recueillies durant dix jours dans un système réel de traitement par boues activées. Les résultats démontrent la sensibilité du modèle face aux importantes variations instantanées des concentrations de métaux lourds dans l’affluent. Il est néanmoins capable de prévoir l’évolution des concentrations de métaux lourds à l’intérieur de la station et à l’effluent.

Dissertations / Theses on the topic "Optimisation dirigée par les données":

1

Bouarar, Selma. "Vers une conception logique et physique des bases de données avancées dirigée par la variabilité." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le processus de conception des BD ne cesse d'augmenter en complexité et d'exiger plus de temps et de ressources afin de contenir la diversité des applications BD. Rappelons qu’il se base essentiellement sur le talent et les connaissances des concepteurs. Ces bases s'avèrent de plus en plus insuffisantes face à la croissante diversité de choix de conception, en soulevant le problème de la fiabilité et de l'exhaustivité de cette connaissance. Ce problème est bien connu sous le nom de la gestion de la variabilité en génie logiciel. S’il existe quelques travaux de gestion de variabilité portant sur les phases physique et conceptuelle, peu se sont intéressés à la phase logique. De plus, ces travaux abordent les phases de conception de manière séparée, ignorant ainsi les différentes interdépendances.Dans cette thèse, nous présentons d'abord la démarche à suivre afin d'adopter la technique des lignes de produits et ce sur l'ensemble du processus de conception afin de (i) considérer les interdépendances entre les phases, (ii) offrir une vision globale au concepteur, et (iii) augmenter l'automatisation. Vu l'étendue de la question, nous procédons par étapes dans la réalisation de cette vision, en consacrant cette thèse à l'étude d'un cas choisi de façon à montrer : (i) l'importance de la variabilité de la conception logique, (ii) comment la gérer en offrant aux concepteurs l'exhaustivité des choix, et la fiabilité de la sélection, (iii) son impact sur la conception physique (gestion multiphase),(iv) l'évaluation de la conception logique, et de l'impact de la variabilité logique sur la conception physique (sélection des vues matérialisées) en termes des besoins non fonctionnel(s) :temps d'exécution, consommation d'énergie voire l'espace de stockage
The evolution of computer technology has strongly impacted the database design process which is henceforth requiring more time and resources to encompass the diversity of DB applications.Note that designers rely on their talent and knowledge, which have proven insufficient to face the increasing diversity of design choices, raising the problem of the reliability and completeness of this knowledge. This problem is well known as variability management in software engineering. While there exist some works on managing variability of physical and conceptual phases, very few have focused on logical design. Moreover, these works focus on design phases separately, thus ignore the different interdependencies. In this thesis, we first present a methodology to manage the variability of the whole DB design process using the technique of software product lines, so that (i)interdependencies between design phases can be considered, (ii) a holistic vision is provided to the designer and (iii) process automation is increased. Given the scope of the study, we proceed step-bystepin implementing this vision, by studying a case that shows: (i) the importance of logical design variability (iii) its impact on physical design (multi-phase management), (iv) the evaluation of logical design, and the impact of logical variability on the physical design (materialized view selection) in terms of non-functional requirements: execution time, energy consumption and storage space
2

Djilani, Zouhir. "Donner une autre vie à vos besoins fonctionnels : une approche dirigée par l'entreposage et l'analyse en ligne." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0012/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les besoins fonctionnels et non fonctionnels représentent la première brique pour la conception de toute application, logiciel, système, etc. L'ensemble des traitements associés aux besoins est établi dans le cadre de l'ingénierie des Besoins (IB). Le processus de l'IB comporte plusieurs étapes consistant à découvrir, analyser, valider et faire évoluer l'ensemble des besoins relatifs aux fonctionnalités du système. La maturité de la communauté de l'IB lui a permis d'établir un cycle de vie bien déterminé pour le processus de besoins qui comprend les phases suivantes :l'élicitation, la modélisation, la spécification, la validation et la gestion des besoins. Une fois ces besoins validés, ils sont archivés ou stockés dans des référentiels ou des dépôts au sein des entreprises. Avec l'archivage continu des besoins, ces entreprises disposent d'une mine d'informations qu'il faudra analyser afin de reproduire les expériences cumulées et le savoir-faire acquis en réutilisant et en exploitant ces besoins pour des nouveaux projets. Proposer à ces entreprises un entrepôt dans lequel l'ensemble de besoins est stocké représente une excellente opportunité pour les analyser à des fins décisionnelles et les fouiller pour reproduire des anciennes expériences. Récemment, la communauté des processus (BPM) a émis le même besoin pour les processus. Dans cette thèse, nous souhaitons exploiter le succès des entrepôts de données pour le reproduire sur les besoins fonctionnels. Les problèmes rencontrés lors de la conception des entrepôts de données se retrouvent presque à l'identique dans le cas des besoins fonctionnels.Ces derniers sont souvent hétérogènes, surtout dans le cas d'entreprises de grande taille comme Airbus, où chaque partenaire a la liberté d'utiliser ses propres vocabulaire et formalisme pour décrire ses besoins. Pour réduire cette hétérogénéité, l'appel aux ontologies est nécessaire. Afin d'assurer l'autonomie de chaque source, nous supposons que chaque source a sa propre ontologie.Cela nécessite des efforts de matching entre les ontologies afin d'assurer l' intégration des besoins fonctionnels. Une particularité importante liée à l'entreposage de besoins réside dans le fait que ces derniers sont souvent exprimés à l'aide des formalismes semi-formels comme les use cases d'UML avec une partie textuelle importante. Afin de nous rapprocher le plus possible de ce que nous avons fait dans le cadre de l'entreposage de données, nous proposons un modèle pivot permettant de factoriser trois semi-formalismes répandus utilisés par les sources de besoins avec une description précise de ces derniers. Ce modèle pivot permettra de définir le modèle multidimensionnel del' entrepôt de besoins, qui sera ensuite alimenté par les besoins des sources en utilisant un algorithme ETL (Extract, Transform, Load). À l'aide des mécanismes de raisonnement offerts par les ontologies et des métriques de matching, nous avons nettoyé notre entrepôt de besoins. Une fois l'entrepôt déployé, il est exploité par des outils d'analyse OLAP.Notre méthodologie est supportée par un outil couvrant l'ensemble des phases de conception et d'exploitation d'un entrepôt de besoins
Functiona] and non-functional requirements represent the first step for the design of any application, software, system, etc. Ail the issues associated to requirements are analyzed in the Requirements Engineering (RE) field. The RE process consists of several steps consisting of discovering, analyzing, validating and evolving the requirements related to the functionalities of the system. The RE community proposed a well-defined life-cycle for the requirements process that includes the following phases: elicitation, modeling, specification, validation and management. Once the requirements are validated, they are archived or stored in repositories in companies. With the continuous storage of requirements, companies accumulate an important amount of requirements information that needs to be analyzed in order to reproduce the previous experiences and the know-how acquired by reusing and exploiting these requirements for new projects. Proposing to these companies a warehouse in which all requirements are stored represents an excellent opportunity to analyze them for decision-making purposes. Recently, the Business Process Management Community (BPM) emitted the same needs for processes. In this thesis, we want to exploit the success of data warehouses and to replicate it for functional requirements. The issues encountered in the design of data warehouses are almost identical in the case of functional requirements. Requirements are often heterogeneous, especially in the case of large companies such Airbus, where each panner bas the freedom to use its own vocabulary and formalism to describe the requirements. To reduce this heterogeneity, using ontologies is necessary. In order to ensure the autonomy of each partner, we assume that each source bas its own ontology. This requires matching efforts between ontologies to ensure the integration of functional requirements. An important feature related to the storage of requirements is that they are often expressed using semi-forma! formalisms such as use cases of UML with an important textual part. In order to get as close as possible to our contributions in data warehousing,we proposed a pivot model factorizing three well-known semi-formalisms. This pivot model is used to define the multidimensional model of the requirements warehouse, which is then alimented by the sources requirements using an ETL algorithm (Extract,Transform, Load).Using reasoning mechanisms otfered by ontologies and matching metrics, we cleaned up our requirements warehouse. Once the warehouse is deployed, it is exploited using OLAP analysis tools. Our methodology is supported by a tool covering all design phases of the requirements warehouse
3

Loger, Benoit. "Modèles d’optimisation basés sur les données pour la planification des opérations dans les Supply Chain industrielles." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0389.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à la complexité croissante des chaînes logistiques, l’utilisation d’outils d’aide à la décision automatisés devient nécessaire pour appréhender les multiples sources d’incertitude susceptibles de les impacter tout en garantissant un niveau de performance élevé. Pour répondre à ces objectif, les managers ont de plus en plus recours à des approches capables d’améliorer la résilience des chaînes logistiques en proposant des solutions robustes face aux aléas, pour garantir à la fois la qualité de service et la maîtrise des coûts liés à la production, au stockage et au transport de biens. Alors que la collecte et l’analyse des données occupe une place croissante dans la stratégie des entreprises, la bonne exploitation de ces informations afin de caractériser plus précisément ces incertitudes et leur impact sur les opérations devient un enjeu majeur pour optimiser les systèmes de production et de distribution modernes. Cette thèse se positionne au cœur de ces nouveaux défis en développant différentes méthodes d’optimisation mathématiques reposant sur l’utilisation de données historiques, dans le but de proposer des solutions robustes à plusieurs problèmes d’approvisionnement et de planification de production. Des expérimentations numériques sur des applications de natures diverses permettent de comparer ces nouvelles techniques à plusieurs autres approches classiques de la littérature pour valider leur pertinence en pratique. Les résultats obtenus démontrent l’intérêt de ces contributions, qui offrent des performances moyennes comparables tout en réduisant leur variabilité en contexte incertain. En particulier, les solutions restent satisfaisantes lorsqu’elles sont confrontées à des scenarios extrêmes, dont la probabilité d’apparition est faible. Enfin, les temps de résolution des procédures développées restent compétitifs et laissent envisager la possibilité d’une mise en œuvre sur des cas d’application à l’échelle industrielle
With the increasing complexity of supply chains, automated decision-support tools become necessary in order to apprehend the multiple sources of uncertainty that may impact them, while maintaining a high level of performance. To meet these objectives, managers rely more and more on approaches capable of improving the resilience of supply chains by proposing robust solutions that remain valid despite uncertainty, to guarantee both a quality of service and a control of the costs induced by the production, storage and transportation of goods. As data collection and analysis become central to define the strategy of companies, a proper usage of this information to characterize more precisely these uncertainties and their impact on operations is becoming a major challenge for optimizing modern production and distribution systems. This thesis addresses these new challenges by developing different mathematical optimization methods based on historical data, with the aim of proposing robust solutions to several supply and production planning problems. To validate the practical relevance of these new techniques, numerical experiments on various applications compare them with several other classical approachesfrom the literature. The results obtained demonstrate the value of these contributions, which offer comparable average performance while reducing their variability in an uncertain context. In particular, the solutions remain satisfactory when confronted with extreme scenarios, whose probability of occurrence is low. Finally, the computational time of the procedures developed remain competitive, making them suitable for industrial-scale applications
4

Ikken, Sonia. "Efficient placement design and storage cost saving for big data workflow in cloud datacenters." Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job
The typical cloud big data systems are the workflow-based including MapReduce which has emerged as the paradigm of choice for developing large scale data intensive applications. Data generated by such systems are huge, valuable and stored at multiple geographical locations for reuse. Indeed, workflow systems, composed of jobs using collaborative task-based models, present new dependency and intermediate data exchange needs. This gives rise to new issues when selecting distributed data and storage resources so that the execution of tasks or job is on time, and resource usage-cost-efficient. Furthermore, the performance of the tasks processing is governed by the efficiency of the intermediate data management. In this thesis we tackle the problem of intermediate data management in cloud multi-datacenters by considering the requirements of the workflow applications generating them. For this aim, we design and develop models and algorithms for big data placement problem in the underlying geo-distributed cloud infrastructure so that the data management cost of these applications is minimized. The first addressed problem is the study of the intermediate data access behavior of tasks running in MapReduce-Hadoop cluster. Our approach develops and explores Markov model that uses spatial locality of intermediate data blocks and analyzes spill file sequentiality through a prediction algorithm. Secondly, this thesis deals with storage cost minimization of intermediate data placement in federated cloud storage. Through a federation mechanism, we propose an exact ILP algorithm to assist multiple cloud datacenters hosting the generated intermediate data dependencies of pair of files. The proposed algorithm takes into account scientific user requirements, data dependency and data size. Finally, a more generic problem is addressed in this thesis that involve two variants of the placement problem: splittable and unsplittable intermediate data dependencies. The main goal is to minimize the operational data cost according to inter and intra-job dependencies
5

Ikken, Sonia. "Efficient placement design and storage cost saving for big data workflow in cloud datacenters." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job
The typical cloud big data systems are the workflow-based including MapReduce which has emerged as the paradigm of choice for developing large scale data intensive applications. Data generated by such systems are huge, valuable and stored at multiple geographical locations for reuse. Indeed, workflow systems, composed of jobs using collaborative task-based models, present new dependency and intermediate data exchange needs. This gives rise to new issues when selecting distributed data and storage resources so that the execution of tasks or job is on time, and resource usage-cost-efficient. Furthermore, the performance of the tasks processing is governed by the efficiency of the intermediate data management. In this thesis we tackle the problem of intermediate data management in cloud multi-datacenters by considering the requirements of the workflow applications generating them. For this aim, we design and develop models and algorithms for big data placement problem in the underlying geo-distributed cloud infrastructure so that the data management cost of these applications is minimized. The first addressed problem is the study of the intermediate data access behavior of tasks running in MapReduce-Hadoop cluster. Our approach develops and explores Markov model that uses spatial locality of intermediate data blocks and analyzes spill file sequentiality through a prediction algorithm. Secondly, this thesis deals with storage cost minimization of intermediate data placement in federated cloud storage. Through a federation mechanism, we propose an exact ILP algorithm to assist multiple cloud datacenters hosting the generated intermediate data dependencies of pair of files. The proposed algorithm takes into account scientific user requirements, data dependency and data size. Finally, a more generic problem is addressed in this thesis that involve two variants of the placement problem: splittable and unsplittable intermediate data dependencies. The main goal is to minimize the operational data cost according to inter and intra-job dependencies
6

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
7

Mahéo, Yves. "Environnements pour la compilation dirigée par les données : supports d'exécution et expérimentations." Phd thesis, Université Rennes 1, 1995. http://tel.archives-ouvertes.fr/tel-00497580.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La difficulté de programmation des architectures parallèles à mémoire distribuée est un obstacle à l'exploitation de leur puissance de calcul potentielle. Parmi les différentes approches proposées pour pallier à cette difficulté, celle de la compilation dirigée par les données semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprimé par exemple en HPF, est un programme séquentiel impératif dans lequel il est précisé comment sont réparties les données sur les processeurs ; le compilateur dérive un code parallèle en distribuant le contrôle d'après la distribution des données. La mise en oeuvre de cette approche nécessite le développement d'environnements complets. Cette thèse présente le travail réalisé dans le cadre d'un environnement de ce type : l'environnement Pandore. Nous nous sommes intéressés à la conception et la réalisation d'un exécutif portable et efficace qui doit être associé au compilateur ainsi qu'à l'évaluation des performances des programmes générés. Après avoir situé l'approche de la compilation par distribution de données dansle contexte plus large de la programmation des machines parallèles à mémoire distribuée, nous définissons des opérations de haut niveau qui permettent la description des schémas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont considérés, d'une part des machines à messages et d'autre part des machines disposant d'un mécanisme de mémoire virtuelle partagée. Les points clés de la mise en oeuvre des opérations dans le compilateur et l'exécutif sont abordés. Nous insistons plus particulièrement sur la gestion des données distribuées et sur les optimisations des communications à l'exécution. Une mise en oeuvre réalisée dans l'environnement Pandore est ensuite détaillée. L'évaluation des performances des programmes est également étudiée, dans un premier temps par une série d'expérimentations sur plusieurs applications et dans un deuxième temps par la définition d'outils de mesure et de visualisation adaptés à la compilation par distribution de données.
8

Maheo, Yves. "Environnement pour la compilation dirigée par les données : supports d'exécution et expérimentations." Rennes 1, 1995. http://www.theses.fr/1995REN10059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La difficulte de programmation des architectures paralleles a memoire distribuee est un obstacle a l'exploitation de leur puissance de calcul potentielle. Parmi les differentes approches proposees pour pallier cette difficulte, celle de la compilation dirigee par les donnees semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprime par exemple en hpf, est un programme sequentiel imperatif dans lequel il est precise comment sont reparties les donnees sur les processeurs ; le compilateur derive un code parallele en distribuant le controle d'apres la distribution des donnees. La mise en uvre de cette approche necessite le developpement d'environnements complets. Cette these presente le travail realise dans le cadre d'un environnement de ce type: l'environnement pandore. Nous nous sommes interesses a la conception et la realisation d'un executif portable et efficace qui doit etre associe au compilateur ainsi qu'a l'evaluation des performances des programmes generes. Apres avoir situe l'approche de la compilation par distribution de donnees dans le contexte plus large de la programmation des machines paralleles a memoire distribuee, nous definissons des operations de haut niveau qui permettent la description des schemas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont consideres, d'une part des machines a messages et d'autre part des machines disposant d'un mecanisme de memoire virtuelle partagee. Les points cles de la mise en uvre des operations dans le compilateur et l'executif sont abordes. Nous insistons plus particulierement sur la gestion des donnees distribuees et sur les optimisations des communications a l'execution. Une mise en uvre realisee dans l'environnement pandore est ensuite detaillee. L'evaluation des performances des programmes est egalement etudiee, dans un premier temps par une serie d'experimentations sur plusieurs applications et dans un deuxieme temps par la definition d'outils de mesure et de visualisation adaptes a la compilation par distribution de donnees
9

Beneyton, Thomas. "Évolution dirigée et biopile enzymatique : étude de la laccase CotA et optimisation par évolution dirigée en microfluidique digitale." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/BENEYTON_Thomas_2011.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les biopiles enzymatiques ont vu le jour pour développer des sources miniatures d’électricité renouvelable. Cette technologie naissante est cependant encore limitée en termes de puissance ou de durée de vie. Bien qu’encore peu employée, une stratégie pour améliorer ces performances consiste à optimiser les propriétés catalytiques ou de stabilité des enzymes. Ces travaux de doctorat décrivent le développement d’une plateforme de microfluidique digitale permettant l’évolution dirigée de la laccase CotA de Bacillus subtilis pour une utilisation dans une biopile enzymatique. Ces travaux démontrent la possibilité d’utiliser une enzyme extrêmophile au sein d’une biopile enzymatique. L’efficacité de CotA en tant que biocatalyseur de la réduction de l’O2 a été évaluée pour la première fois en développant des biocathodes ou des biopiles Glucose/O2 complètes. Une plateforme microfluidique modèle de criblage à très haut débit applicable à l’évolution dirigée de la laccase CotA a également été mise au point et validée. La plateforme permet l’encapsulation de cellules E. Coli exprimant la protéine dans des microgouttelettes aqueuses de quelques picolitres, l’incubation des microgouttelettes, l’ajout du substrat par picoinjection puis la détection et le tri de l’activité enzymatique de CotA à très haut débit (1 million de clones en seulement 4 heures). La plateforme est directement applicable au criblage de banques de mutants et les variants optimisés sélectionnés devraient mener à la création d’une nouvelle génération de biopiles plus efficaces. Cette plateforme universelle de criblage constitue un outil à la fois versatile et puissant pour l’évolution dirigée des protéines
Enzymatic biofuel cells have been recently developed to create miniature renewable electricity sources. However, this new technology is still limited in terms of power and lifetime compared to classical fuel cells. Although it has been rarely used yet, one strategy to improve these performances is to optimize the catalytic and stability properties of the enzymes. This PhD work describes the development of a droplet-based microfluidic platform for thr directed evolution of CotA laccase from Bacillus subtilis for enzymatic biofuel cells application. This work demonstrates the possibility of using an extremophilic enzyme inside an enzymatique biofuel cell. The efficiency of CotA as a biocatalyst for O2 reduction has been evaluated for the first time developing biocathodes or complete Glucose/O2 biofuel cells. A droplet-based microfluidic high-throughput screening platform for CotA directed evolution has also been developed and validated. This platform allows the encapsulation of E. Coli cells expressing the protein in aqueous droplets of few picoliters, the incubation of droplets, the addition of the substrate using picoinjection and then the detection and the sorting of CotA enzymatic activity using very high-throughput (1 million clones in only 4 hours). The platform can be directly used for the screening of mutant libraries. Optimized selected mutants would lead to the creation of a new and more efficient generation of enzymatic biofuel cells. This universal droplet-based microfluidic screening platform is a very powerful tool for directed evolution of proteins
10

Ait, Brahim Amal. "Approche dirigée par les modèles pour l'implantation de bases de données massives sur des SGBD NoSQL." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transformation digitale des entreprises et plus largement celle de la société, entraine une évolution des bases de données (BD) relationnelles vers les BD massives. Dans les systèmes informatiques décisionnels actuels, les décideurs doivent pouvoir constituer des bases de données, les réorganiser puis en extraire l’information pertinente pour la prise de décision. Ces systèmes sont donc naturellement impactés par cette évolution où les données sont généralement stockées sur des systèmes NoSQL capables de gérer le volume, la variété et la vélocité. Nos travaux s’inscrivent dans cette mutation ; ils concernent plus particulièrement les mécanismes d’implantation d’une BD massive sur un SGBDNoSQL. Le point de départ du processus d’implantation est constitué d’un modèle contenant la description conceptuelle des données et des contraintes d’intégrité associées.Peu de travaux ont apporté des solutions automatiques complètes portant à la fois sur les structures de données et les contraintes d’intégrité. L’objectif de cette thèse est de proposer une démarche générale qui guide et facilite la tâche de transformation d’un modèle conceptuel en un modèle d’implantation NoSQL. Pour ceci, nous utilisons l’architecture MDA qui est une norme du consortium OMG pour le développement dirigé par les modèles.A partir d'un modèle conceptuel exprimé à l'aide du formalisme UML, notre démarche MDA applique deux processus unifiés pour générer un modèle d’implantation sur une plateforme NoSQL choisie par l’utilisateur : - Le processus de transformation d’un DCL, - Le processus de transformation des contraintes associées, Nos deux processus s’appuient sur :- Trois niveaux de modélisation : conceptuel, logique et physique, où le modèle logique correspond à une représentation générique compatible avec les quatre types de SGBD NoSQL : colonnes, documents, graphes et clé-valeur, - Des métamodèles permettant de vérifier la validité des modèles à chaque niveau, - Des normes de l’OMG pour formaliser l’entrée du processus et l’ensemble des règles de transformation. Afin de vérifier la faisabilité de notre solution, nous avons développé un prototype composé de deux modules. Le premier applique un ensemble de règles de transformation sur un modèle conceptuel et restitue un modèle NoSQL associé à un ensemble de directives d’assistance. Le second module complète le premier en intégrant les contraintes qui ne sont pas prises en compte dans le modèle physique généré. Nous avons montré également la pertinence de nos propositions grâce à une évaluation réalisée par des ingénieurs d’une société spécialisée dans le décisionnel
Le résumé en anglais n'a pas été communiqué par l'auteur

Conference papers on the topic "Optimisation dirigée par les données":

1

Hascoet, E., G. Valette, G. Le Toux, and S. Boisramé. "Proposition d’un protocole de prise en charge implanto-portée de patients traités en oncologie tête et cou suite à une étude rétrospective au CHRU de Brest." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’organisation de la réhabilitation maxillo-faciale implanto-portée en oncologie tête et cou reste sujet à débat. Il n’existe pas de consensus quant au moment de la réhabilitation implantaire (pendant ou à distance de l’exérèse) ou quant aux prérequis anatomiques qui garantissent son succès. Le but de cette étude est de mettre en place un protocole de prise en charge implanto-portée de patients ayant été traités en oncologie tête et cou. Il s’agit d’une étude rétrospective entre 2013 et 2017, analysant la réhabilitation implantoportée de neuf patients traités pour un cancer tête et cou par chirurgie et radiothérapie (groupe 1 : 5 patients) ou par chirurgie seule (groupe 2 : 4 patients). Les critères étudiés étaient les données personnelles des patients, leurs antécédents oncologiques, les bilans oraux pré-opératoires effectués, les thérapeutiques utilisées ainsi que le suivi. Tous les patients ont été traités pour des carcinomes épidermödes majoritairement situés au niveau du plancher buccal. Ils présentaient tous une limitation de la mobilité linguale, une absence de vestibule et des tissus crestaux mobiles. Les projets prothétiques prévoyaient de réaliser pour sept patients une prothèse amovible complète mandibulaire stabilisée sur implants et pour deux patients des couronnes unitaires sur implant. Les patients ayant recu un lambeau libre de péroné latéral ont bénéficié d’une greffe d’apposition associée à un lambeau de FAMM. Les deux greffes ont permises la pose des implants. Sur neuf patients, cinq ont bénéficié d’une libération linguale, six ont recu une vestibuloplastie et huit ont eu une greffe épithélio-conjonctive péri-implantaire. Les implants ont été posés sous anesthésie générale avec un guide chirurgical pointeur. Il s’agissait d’implants Tissu Level RN SLA Roxolid (Straumann, Basel, Suisse). Pour les patients du groupe 2, la pose des implants a eu lieu en même temps que la vestibuloplastie. Lors de cette étude quatre patients étaient réhabilités par une prothèse sur implants. Le groupe 2 n’a pas présenté de complications. Deux patients du groupe 1 ont nécessité plusieurs libérations linguales et deux implants ne se sont pas ostéointégrés dans ce groupe. Lors de chirurgies en deux temps, des greffes épithélio-conjonctives crestales ont dû être réalisées pendant la vestibuloplastie puis pendant la pose implantaire. Deux greffes osseuses ont été réalisées chez deux patients ayant été irradiés bien que cela soit contre indiqué dans la littérature (Raoul 2009). Une greffe osseuse d’apposition peut donc être une solution viable chez ces patients afin de limiter le bras de levier prothétique. Cette étude a permis de mettre en exergue : l’importance de prévoir en amont la réhabilitation implantoportée lors de la reconstruction pour une optimisation du positionnement du greffon osseux et l’intérêt d’effectuer dans le même temps vestibuloplastie, pose des implants et aménagement péri-implantaire pour la pérennité implantaire. Cette étude rétrospective a permis de proposer un protocole de prise en charge standardisé de la réhabilitation implanto-portée de patients traités pour un cancer tête et cou.

Reports on the topic "Optimisation dirigée par les données":

1

Enria, Luisa. Ethnographie citoyenne dans la réponse aux épidémies : orientation pour l’établissement de réseaux de chercheurs. SSHAP, May 2022. http://dx.doi.org/10.19088/sshap.2022.032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette orientation décrit les étapes de conception et de mise en œuvre d’une recherche ethnographique dirigée par les citoyens. Elle explique ce qu’est l’ethnographie citoyenne et définit ensuite ce qui doit être considéré tout au long du processus de travail avec les réseaux de chercheurs citoyens, du recrutement, de la formation et du soutien à la collecte et à l'analyse de données ethnographiques, et comment transformer les connaissances qu'ils acquièrent pour soutenir la préparation et les interventions en cas d'épidémie. Il fournit également des suggestions de ressources supplémentaires pour soutenir le processus. L'orientation s’adressent aux spécialistes en sciences sociales qui souhaitent intégrer les approches ethnographiques dirigées par les citoyens dans leurs recherches, ainsi qu'aux praticiens qui travaillent sur l'engagement communautaire ou sur d'autres réponses aux épidémies, qui cherchent à utiliser les connaissances des sciences sociales dans leurs opérations. L'orientation a été rédigée pour la SSHAP par Luisa Enria (London School of Hygiene & Tropical Medicine). La SSHAP en assume la responsabilité.

To the bibliography