Auswahl der wissenschaftlichen Literatur zum Thema „Corrections basées sur des modèles“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Corrections basées sur des modèles" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Corrections basées sur des modèles"

1

Cerón Islas, Heidy, Jaime Garnica González, Beatriz Pico González und Joel Ramírez Ortega. „Innovando el Modelo de negocios centrado en las capacidades tecnológicas del talento humano para empresas de servicios“. Recherches en Sciences de Gestion N° 156, Nr. 3 (27.07.2023): 43–65. http://dx.doi.org/10.3917/resg.156.0043.

Der volle Inhalt der Quelle
Annotation:
La proposition d’une innovation du modèle d’affaires applicable aux entreprises de service basées sur la technologie, cherche à prévaloir de manière durable avec succès en entreprise; Selon l’analyse de la littérature, l’innovation repose sur la valeur ajoutée, sur la vision stratégique qui génère un avantage concurrentiel et sur l’intégration d’innovations basées sur les capacités technologiques du capital humain. Les résultats contribuent à l’ensemble des modèles d’affaires qui collectent les actions clés définies pour choisir une stratégie. Nous concluons que les modèles d’affaires doivent être capables de convertir les connaissances en valeur économique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hayes, Brandon. „Anticiper la pandémie de grippe aviaire“. Le Nouveau Praticien Vétérinaire élevages & santé 15, Nr. 52 (2023): 34–38. http://dx.doi.org/10.1051/npvelsa/2023020.

Der volle Inhalt der Quelle
Annotation:
La modélisation mathématique en épidémiologie comprend un ensemble d’outils capable de fournir des informations mesurables basées sur des données historiques ou en temps réel. Différents modèles sont utilisables et peuvent être grossièrement répartis en deux catégories : les modèles statistiques et les modèles mécanistes. La modélisation est un outil majeur pour aider les décideurs politiques dans le domaine de la santé publique. Dans le cas de l’influenza aviaire hautement pathogène, elle permet notamment de prédire les dynamiques d’évolution des épizooties et l’impact des différentes mesures, comme la réduction de la densité des élevages ou la mise en place de la vaccination des oiseaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Rochon, Madeleine. „Stérilité et infertilité : deux concepts“. Articles 15, Nr. 1 (20.10.2008): 27–56. http://dx.doi.org/10.7202/600584ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Nombre d’affirmations sur le niveau de stérilité sont fausses parce que basées sur des concepts confus et des mesures inadéquates. Cet article souligne l’importance de la distinction entre stérilité et infertilité. Il discute à cet effet des difficultés à concevoir et des délais d’attente, de l’incidence des traitements contre l’infertilité, des modèles démographiques de fécondabilité, de l’âge de la femme à la première naissance et de l’évolution récente de la stérilité et de l’infertilité en relation avec les maladies transmissibles sexuellement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Catherine, David, Frédéric Corolleur und Roger Coronini. „Les fondateurs des nouvelles entreprises de biotechnologies et leurs modèles d’entreprise. Une approche par les compétences et les ressources illustrée sur le cas français“. Notes de recherche 15, Nr. 2 (16.02.2012): 63–92. http://dx.doi.org/10.7202/1008807ar.

Der volle Inhalt der Quelle
Annotation:
L’objet de cette contribution est de s’interroger sur le lien entre les fondateurs des nouvelles entreprises de biotechnologies et leur modèle d’entreprise. Cette recherche s’appuie sur l’analyse de 61 nouvelles entreprises de biotechnologies françaises (NEB) et de leurs 129 fondateurs. Elle s’inscrit dans le cadre des théories de la firme basées sur les ressources. Quatre modèles d’entreprise sont différenciés : produit, prestataire de service, plate-forme technologique, bio-santé. Les deux premiers se différencient des deux autres quant aux compétences des équipes de fondateurs, aux modes de valorisation de leur capital humain et des ressources technologiques et financières mobilisées pour assurer leur viabilité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Guillon, Grégoire, Pascal Honvault, Maxence Lepers, François Lique und Thierry Stoecklin. „Collisions moléculaires en phase gazeuse“. Reflets de la physique, Nr. 61 (März 2019): 26–31. http://dx.doi.org/10.1051/refdp/201961026.

Der volle Inhalt der Quelle
Annotation:
L’étude théorique des collisions entre atomes et molécules permet, grâce à la résolution d’état à état des simulations numériques basées sur la physique quantique, une description détaillée des mécanismes mis en jeu et contribue grandement à améliorer les modèles atmosphériques et astrophysiques. Dans cet article, après avoir présenté les méthodes de dynamique actuelles, nous donnons des exemples clés d’intérêt pour le milieu interstellaire, l’atmosphère terrestre et les milieux (ultra)froids, et présentons les défis majeurs à relever.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

CARLOS, Serge. „Les cheminements de la causalité“. Sociologie et sociétés 2, Nr. 2 (30.09.2002): 189–202. http://dx.doi.org/10.7202/001123ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le thème de l'article est la convergence entre la réflexion sociologique et les développements des techniques d'analyse quantitative. L'auteur montre comment l'emploi des techniques basées sur le modèle général de régression amène le chercheur à pousser plus loin sa réflexion sur les phénomènes étudiés, chacune des techniques présentées impliquant des postulats quant à la dynamique des variables mesurées ou quant à l'influence de variables non mesurées. Partant de l'analyse écologique et de l'analyse contextuelle, l'auteur introduit l'analyse des cheminements de causalité en montrant la progression de la convergence des techniques et de la réflexion sociologique des premiers modèles au second.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Dufrénot, Gilles. „Faut-il croire aux modèles non linéaires du cycle économique ?“ Économie appliquée 47, Nr. 3 (1994): 41–64. http://dx.doi.org/10.3406/ecoap.1994.1522.

Der volle Inhalt der Quelle
Annotation:
Les travaux de la dernière décennie ont développé une nouvelle méthodologie pour l'étude de la formation des cycles endogènes en économie. Elle est nouvelle, au sens où les interprétations habituelles, basées par exemple sur l’interaction des mécanismes d’accélération et de multiplication, sont reléguées au second plan, au profit d’explications attribuant un rôle plus important aux comportements de substitution intertemporelle, ainsi qu’aux anticipations des agents. Ces éléments laissent ainsi transparaître un certain clivage entre, d’un côté, des arguments développés naguère dans un contexte macroéconomique et, de l’autre, le souci actuel du recours aux concepts de l’analyse microéconomique. Il nous a semblé pertinent pour les rendre intelligibles de présenter de façon informelle les idées maîtresses que dissimule la structure formelle des modèles. Cet article a pour ambition de porter un regard critique sur la problématique sous-jacente aux modèles comportant, en plus des hypothèses standard (prévisions parfaites, perfection de l’information, marchés apurés en permanence), des hypothèses relatives au caractère non linéaire des équations décrivant la structure de l’économie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Fontan, Jean-Marc, Juan Luis Klein, Jacques Caillouette, Mélanie Doyon, Benoit Lévesque, Diane-Gabrielle Tremblay, Pierre-André Tremblay und Catherine Trudelle. „Vers de nouveaux modèles d’action en développement territorial : l’expérimentation à l’échelle locale de la transition vers le « buen vivir »“. Économie et Solidarités 44, Nr. 1-2 (20.10.2017): 84–102. http://dx.doi.org/10.7202/1041606ar.

Der volle Inhalt der Quelle
Annotation:
Ce texte porte sur le renouvellement des modèles d’action en développement des territoires en réponse à l’incapacité des politiques publiques de donner une réponse satisfaisante aux besoins et aux aspirations des citoyens et des communautés. Il explore les pistes d’un modèle alternatif au modèle néolibéral à partir de l’analyse de deux expérimentations, celles de Parole d’excluEs à Montréal et de Saint-Camille, en Estrie. Ces deux expérimentations mettent en oeuvre un leadership partagé, une gouvernance inclusive et le développement de capacités réflexives basées sur le croisement de savoirs et sur la collaboration entre la recherche et l’action. À travers les expériences menées, nous voyons émerger un modèle qui met en exergue le milieu de vie et non pas la croissance, dans une perspective convergente avec celle de l’approche du bien-vivre (buen vivir).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Dautremont, Charlotte, Vincent Martin und Sylvie Jancart. „Multidisciplinarité en conception architecturale : retour sur deux décennies en agence“. SHS Web of Conferences 82 (2020): 01001. http://dx.doi.org/10.1051/shsconf/20208201001.

Der volle Inhalt der Quelle
Annotation:
Ce papier relate vingt années d’expérience d’une agence multidisciplinaire au sein de laquelle le numérique, et particulièrement le BIM, ont permis de décloisonner la conception architecturale et de déployer de nouveaux modèles collaboratifs en architecture. Tout d’abord, nous revenons sur les promesses initiales du numérique en pratique architecturale et les obstacles et raccourcis pris au cours de ces dernières décennies. Nous relatons ensuite l’émergence du nouveau modèle collaboratif multidisciplinaire développé au sein l’agence. En nous basant sur cette expérience de collaboration multidisciplinaire 4.0, nous relatons deux perspectives en cours de développement basées sur le numérique dont le processus collaboratif BIM : la durabilité systémique en conception architecturale d’une part et l’extension de la mission de maîtrise d’oeuvre au facility management d’autre part. A travers cet article, nous abordons l’impact du numérique sur la métamorphose de la pratique architecturale à travers la multidisciplinarité collaborative.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bouba Djourdebbé, Franklin, Stéphanie dos Santos, Thomas K. Legrand und Abdramane Bassiahi Soura. „Influence des facteurs environnementaux et démographiques dans la cooccurrence de la diarrhée et de la fièvre chez les enfants dans cinq quartiers périphériques de Ouagadougou (Burkina Faso)“. Articles 44, Nr. 1 (09.07.2015): 35–64. http://dx.doi.org/10.7202/1032148ar.

Der volle Inhalt der Quelle
Annotation:
La cooccurrence des symptômes est un problème de santé publique dans plusieurs pays en développement. Faute de données appropriées, on dispose de très peu de preuves entre cooccurrence des symptômes, environnement et facteurs démographiques. Dans cet article, on recourt aux données sur cinq quartiers de l’Observatoire de population de Ouagadougou pour examiner l’influence des facteurs environnementaux et démographiques dans la cooccurrence de la diarrhée et de la fièvre. Les analyses multivariées basées sur des modèles logit ordonnés montrent que les effets de l’environnement et des facteurs démographiques sont plus importants sur la diarrhée ou la fièvre simple que sur la diarrhée et la fièvre combinées. Les analyses révèlent également que l’insalubrité du ménage, la nature du sol extérieur et l’âge de l’enfant sont des facteurs importants de cooccurrence de la diarrhée et de la fièvre chez les enfants.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Mehr Quellen

Dissertationen zum Thema "Corrections basées sur des modèles"

1

Kady, Charbel. „Managing Business Process Continuity and Integrity Using Pattern-Based Corrections“. Electronic Thesis or Diss., IMT Mines Alès, 2024. http://www.theses.fr/2024EMAL0014.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente une approche pour la gestion des déviations dans les flux de travail utilisant le Business Process Model and Notation (BPMN). La recherche répond au besoin de gestion efficace des déviations en intégrant un cadre complet comprenant la correction des déviations basée sur des modèles et un mécanisme enrichi de State Token. L’approche est testée par une étude de cas dans le domaine de l’apiculture, démontrant l’applicabilité pratique et l’efficacité de la méthode proposée. Les contributions clés incluent le développement d’une bibliothèque de modèles, la caractérisation des éléments BPMN et un mécanisme pour aider à la prise de décision dans la gestion des déviations. Les résultats montrent que l’approche peut corriger efficacement les déviations, assurant la continuité et l’intégrité du flux de travail
This thesis presents an approach to managing deviations in Business Process Model and Notation (BPMN) workflows. The research addresses the critical need for effective deviation management by integrating a comprehensive framework that includes pattern-based deviation correction and an enriched State Token mechanism. The approach is tested through a case study in the apiculture domain, demonstrating the practical applicability and effectiveness of the proposed method. Key contributions include the development of a library of patterns, the characterization of BPMN elements, and a mechanism to help decision-making in addressing deviations. The results show that the approach can efficiently correct deviations, ensuring workflow continuity and integrity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Peltier, Mikaël. „Techniques de transformation de modèles basées sur la méta-modélisation“. Nantes, 2003. http://www.theses.fr/2003NANT2057.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous présentons cette problématique de manière concrète et pragmatique. Après avoir étudié les systèmes existants, nous avons développé un langage dédié permettant d'exprimer les transformations de manière formelle, non-ambigue͏̈ et exécutable. Ce langage peut constituer le cœur d'un système unifié de transformation de modèles. Les résultats des travaux de normalisation en cours nous permettent de confirmer les choix proposés et éventuellement de suggérer des extensions ou améliorations
The last modern requirements of software development have caused OMG to define an architecture driven by models that are based on modelling and meta-modelling technologies. This evolution has caused a new problem: the transformation of models. Interest in this activity growing from the industry has ended in the elaboration of a request for proposal in April 2002 whose objective will be to standardise a transformation system. In this document, we are concretely and pragmatically studying the model transformation. After having presented the existing systems, we are orientated towards usage of a domain-specific language to allowing you to express the transformations in a formal, non-ambiguous and executable way. The proposed language can constitute the heart of a unified model transformation system. The results of the normalisation works allow us to confirm the proposed choices and possible suggest extensions or improvements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Belbachir, Faiza. „Approches basées sur les modèles de langue pour la recherche d'opinions“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2341/.

Der volle Inhalt der Quelle
Annotation:
Avec l'évolution du Web, de nombreuses formes de contenu ont été générées par les utilisateurs, y compris les pages personnelles, les discussions et les blogs. Ces derniers sont un moyen facile pour l'expression des avis personnels, le partage des sentiments, ou pour commenter différents sujets. La présence d'information de nature subjective (opinion) apparaît de manière très visible dans les blogs. Ces opinions ont une grande importance dans plusieurs domaines (politique, commercial, ou industriel) d'où la nécessité de les détecter automatiquement. Nos travaux de thèse s'inscrivent dans le contexte de la recherche d'information et s'intéressent plus précisément à l'information de type opinion. Le challenge majeur dans ce cadre est d'arriver à sélectionner des documents qui sont à la fois pertinents à un sujet donné et porteurs d'opinions sur ce sujet. Si la recherche d'information thématique, permet de répondre au critère de pertinence, une des problématiques majeure de cette tâche est de répondre au second critère. En effet outre la question relative à l'identification de documents porteurs d'opinions (nous parlons ainsi de documents subjectifs) ; il faudrait que l'opinion exprimée dans le document porte sur le sujet. Ceci n'est évidemment pas certain car un document peut traiter différents sujets. Parmi les différentes approches existantes dans la détection d'opinion, certaines se basent sur des lexiques de termes subjectifs et d'autres sur l'apprentissage automatique. Dans le cadre de cette thèse nous nous sommes intéressés aux deux types d'approches en palliant certaines de leurs limites. Notre contribution porte sur trois principaux volets. En premier lieu nous proposons une approche lexicale pour la détection d'opinion dans les blogs. Pour ce faire, nous exploitons différentes ressources subjectives, ouvertes, disponibles telles que IMDb, ROTTEN, CHESLY et MPQA qui constituent la source d'opinions. Nous supposons que si un document est similaire à cette source, il est vraisemblablement porteur d'opinions. Pour estimer cette vraisemblance, nous proposons de modéliser le document à tester et la source d'opinion par des modèles de langue et de mesurer la similarité des deux modèles. Plus cette similarité est grande et plus le document est vraisemblablement subjectif. Notre deuxième contribution porte sur la proposition d'une approche de détection d'opinion basée sur l'apprentissage automatique. Pour cela, nous proposons différentes caractéristiques pertinentes telles que l'Émotivité, la Subjectivité, L'Adressage, La Réflexivité permettant de répondre à la tâche en question. Notre troisième contribution concerne la polarité de l'opinion qui consiste à déterminer si un document subjectif a une opinion positive ou négative sur le sujet. De ce fait, nous proposons de prendre en compte un aspect du domaine, permettant de montrer que la polarité d'un terme peut dépendre du domaine dans lequel il est utilisé
Evolution of the World Wide Web has brought us various forms of data like factual data, product reviews, arguments, discussions, news data, temporal data, blog data etc. The blogs are considered to be the best way for the expression of the one's opinions about something including from a political subject to a product. These opinions become more important when they influence govt. Policies or companies marketing agendas and much more because of their huge presence on the web. Therefore, it becomes equally important to have such information systems that could process this kind of information on the web. In this thesis, we propose approach (es) that distinguish between factual and opinion documents with the purpose of further processing of opinionated information. Most of the current opinion finding approaches, some base themselves on lexicons of subjective terms while others exploit machine learning techniques. Within the framework of this thesis, we are interested in both types of approaches by mitigating some of their limits. Our contribution revolves around three main aspects of opinion mining. First of all we propose a lexical approach for opinion finding task. We exploit various subjective publicly available resources such as IMDB, ROTTEN, CHESLY and MPQA that are considered to be opinionated data collections. The idea is that if a document is similar to these, it is most likely that it is an opinionated document. We seek support of language modeling techniques for this purpose. We model the test document (i. E. The document whose subjectivity is to be evaluated) the source of opinion by language modeling technique and measure the similarity between both models. The higher the score of similarity is, the more the document subjective. Our second contribution of detection of opinion is based on the machine learning. For that purpose, we propose and evaluate various features such as the emotivity, the subjectivity, the addressing, the reflexivity and report results to compare them with current approaches. Our third contribution concerns the polarity of the opinion which determines if a subjective document has a positive or negative opinion on a given topic. We conclude that the polarity of a term can depend on the domain in which it is being used
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Albarello, Nicolas. „Etudes comparatives basées sur les modèles en phase de conception d'architectures de systèmes“. Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00879858.

Der volle Inhalt der Quelle
Annotation:
La conception d'architectures de systèmes est une tâche complexe qui implique des enjeux majeurs. Au cours de cette activité, les concepteurs du système doivent créer des alternatives de conception et doivent les comparer entre elles afin de sélectionner l'architecture la plus appropriée suivant un ensemble de critères. Dans le but d'étudier différentes alternatives, les concepteurs doivent généralement limiter leur étude comparative à une petite partie de l'espace de conception qui peut être composé d'un nombre immense de solutions. Traditionnellement, le processus de conception d'architecture est principalement dirigé par le jugement et l'expérience des concepteurs, et les alternatives sélectionnées sont des versions adaptées de solutions connues. Le risque est donc de sélectionner une solution pertinente mais sous-optimale. Pour gagner en confiance sur l'optimalité de la solution retenue, la couverture de l'espace de conception doit être augmentée. L'utilisation de méthodes de synthèse calculatoire d'architecture a prouvé qu'elle était un moyen efficace pour supporter les concepteurs dans la conception d'artefacts d'ingénierie (structures, circuits électriques...). Pour assister les concepteurs de systèmes durant le processus de conception d'architecture, une méthode calculatoire pour les systèmes complexes est définie. Cette méthode emploie une approche évolutionnaire (algorithmes génétiques) pour guider le processus d'exploration de l'espace de conception vers les zones optimales. La population initiale de l'algorithme génétique est créée grâce à une technique de synthèse calculatoire d'architecture qui permet de créer différentes architectures physiques et tables d'allocations pour une architecture fonctionnelle donnée. La méthode permet d'obtenir les solutions optimales du problème de conception posé. Ces solutions peuvent être ensuite utilisées par les concepteurs pour des études comparatives plus détaillées ou pour des négociations avec les fournisseurs de systèmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Allouche, Benyamine. „Modélisation et commande des robots : nouvelles approches basées sur les modèles Takagi-Sugeno“. Thesis, Valenciennes, 2016. http://www.theses.fr/2016VALE0021/document.

Der volle Inhalt der Quelle
Annotation:
Chaque année, plus de 5 millions de personne à travers le monde deviennent hémiplégiques suite à un accident vasculaire cérébral. Ce soudain déficit neurologique conduit bien souvent à une perte partielle ou totale de la station debout et/ou à la perte de la capacité de déambulation. Dans l’optique de proposer de nouvelles solutions d’assistance situées entre le fauteuil roulant et le déambulateur, cette thèse s’inscrit dans le cadre du projet ANR TECSAN VHIPOD « véhicule individuel de transport en station debout auto-équilibrée pour personnes handicapées avec aide à la verticalisation ». Dans ce contexte, ces travaux de recherche apportent des éléments de réponse à deux problématiques fondamentales du projet : l’assistance au passage assis-debout (PAD) des personnes hémiplégiques et le déplacement à l’aide d’un véhicule auto-équilibré à deux roues. Ces problématiques sont abordées du point de vue de la robotique avec comme question centrale : peut-on utiliser l’approche Takagi-Sugeno (TS) pour la synthèse d’une commande ? Dans un premier temps, la problématique de mobilité des personnes handicapées a été traitée sur la base d’une solution de type gyropode. Des lois de commande basées sur les approches TS standard et descripteur ont été proposées afin d’étudier la stabilisation des gyropodes dans des situations particulières telles que le déplacement sur un terrain en pente ou le franchissement de petites marches. Les résultats obtenus ont non seulement permis d’aboutir à un concept potentiellement capable de franchir des obstacles, mais ils ont également permis de souligner la principale difficulté liée à l’applicabilité de l’approche TS en raison du conservatisme des conditions LMIs (inégalités matricielles linéaires). Dans un second temps, un banc d’assistance au PAD à architecture parallèle a été conçu. Ce type de manipulateur constitué de multiples boucles cinématiques présente un modèle dynamique très complexe (habituellement donné sous forme d’équations différentielles ordinaires). L’application de lois de commande basées sur l’approche TS est souvent vouée à l’échec compte tenu du grand nombre de non-linéarités dans le modèle. Afin de remédier à ce problème, une nouvelle approche de modélisation a été proposée. À partir d’un jeu de coordonnées bien particulier, le principe des puissances virtuelles est utilisé pour générer un modèle dynamique sous forme d’équations algébro-différentielles (DAEs). Cette approche permet d’aboutir à un modèle quasi-LPV où les seuls paramètres variants représentent les multiplicateurs de Lagrange issus de la modélisation DAE. Les résultats obtenus ont été validés en simulation sur un robot parallèle à 2 degrés de liberté (ddl) puis sur un robot parallèle à 3 ddl développé pour l’assistance au PAD
Every year more than 5 million people worldwide become hemiplegic as a direct consequence of stroke. This neurological deficiency, often leads to a partial or a total loss of standing up abilities and /or ambulation skills. In order to propose new supporting solutions lying between the wheelchair and the walker, this thesis comes within the ANR TECSAN project named VHIPOD “self-balanced transporter for disabled persons with sit-to-stand function”. In this context, this research provides some answers for two key issues of the project : the sit-to-stand assistance (STS) of hemiplegic people and their mobility through a two wheeled self-balanced solution. These issues are addressed from a robotic point of view while focusing on a key question : are we able to extend the use of Takagi-Sugeno approach (TS) to the control of complex systems ? Firstly, the issue of mobility of disabled persons was treated on the basis of a self-balanced solution. Control laws based on the standard and descriptor TS approaches have been proposed for the stabilization of gyropod in particular situations such as moving along a slope or crossing small steps. The results have led to the design a two-wheeled transporter which is potentially able to deal with the steps. On the other hand, these results have also highlighted the main challenge related to the use of TS approach such as the conservatisms of the LMIs constraints (Linear Matrix Inequalities). In a second time, a test bench for the STS assistance based on parallel kinematic manipulator (PKM) was designed. This kind of manipulator characterized by several closed kinematic chains often presents a complex dynamical model (given as a set of ordinary differential equations, ODEs). The application of control laws based on the TS approach is often doomed to failure given the large number of non-linear terms in the model. To overcome this problem, a new modeling approach was proposed. From a particular set of coordinates, the principle of virtual power was used to generate a dynamical model based on the differential algebraic equations (DAEs). This approach leads to a quasi-LPV model where the only varying parameters are the Lagrange multipliers derived from the constraint equations of the DAE model. The results were validated on simulation through a 2-DOF (degrees of freedom) parallel robot (Biglide) and a 3-DOF manipulator (Triglide) designed for the STS assistance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Coq, Guilhem. „Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia“. Phd thesis, Université de Poitiers, 2008. http://tel.archives-ouvertes.fr/tel-00367568.

Der volle Inhalt der Quelle
Annotation:
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l'image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d'une quantité réelle à minimiser appelée critère d'information ou critère entropique pénalisé.

La principale motivation de ce travail de thèse est de justifier l'utilisation d'un tel critère face à un problème de sélection de modèles typiquement issu d'un contexte de traitement du signal. La justification attendue se doit, elle, d'avoir un solide fondement mathématique.

Nous abordons ainsi le problème classique de la détermination de l'ordre d'une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d'un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l'utilisation est justifiée par la minimisation du coût résultant de l'estimation obtenue. Les chaînes de Markov multiples modélisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d'une image. Nous nous intéressons au problème de la détermination de l'ordre d'une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l'estimation d'une densité par un histogramme. Dans ces deux domaines, nous justifions l'utilisation d'un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de Minimum Description Length.

Nous nous efforçons également, à travers ces différents domaines d'application, de présenter des méthodes alternatives d'utilisation des critères d'information. Ces méthodes, dites comparatives, présentent une complexité d'utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Kucerova, Anna. „Identification des paramètres des modèles mécaniques non-linéaires en utilisant des méthodes basées sur intelligence artificielle“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00256025.

Der volle Inhalt der Quelle
Annotation:
Le problème d'identification des paramètres apparaît dans beaucoup de problèmes en génie civil sous formes différentes et il peut être résolu par beaucoup de méthodes distinctes. Cette thèse présente deux philosophies principales d'identification avec orientation vers les méthodes basées sur intelligence artificielle. Les aspects pratiques sont montrés sur plusieurs problèmes d'identification, où les paramètres des modèles mécaniques non linéaires sont à déterminer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Muroor, Nadumane Ajay Krishna. „Modèles et vérification pour la composition et la reconfiguration d'applications basées sur le web des objets“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM067.

Der volle Inhalt der Quelle
Annotation:
Les applications de l'Internet des objets (IoT) sont construites en interconnectant les objets du quotidien en réseau. Les objets connectés collaborent ensemble, afin d'observer l'environnement les entourant, et agir sur celui-ci. Pour le grand public, l'un des moyens de créer des applications IoT consiste à combiner différents objets à l'aide de règles d'action conditionnelle (ECA). Ces règles se présentent généralement sous la forme « SI quelque chose se produit, ALORS faire quelque chose ». Le web des objets (Web of Things ou WoT) est un ensemble de normes et de principes qui intègrent les capacités du web et les styles architecturaux à l'IoT. Bien que l'architecture WoT associée aux règles de la ECA simplifie dans une large mesure la construction d'applications IoT, il reste des défis à relever afin que les utilisateurs finaux puissent développer aisément des applications avancées et correctes, en raison de la nature dynamique, réactive et hétérogène des systèmes IoT.L'objectif général de ce travail est de tirer parti des méthodes formelles pour fournir un certain niveau de garantie aux utilisateurs finaux des applications IoT. Cela permet, au moment de la conception, d'assurer que l'application conçue se comportera comme prévu lorsque celle-ci sera déployée. Dans ce contexte, nous proposons un cadre de développement formel basé sur le WoT. Les objets sont décrits à l'aide d'un modèle dérivé de la spécification Thing Description du WoT. Ensuite, les applications sont conçues non seulement en spécifiant les règles individuelles ECA, mais aussi en associant ces règles à l'aide d'un langage de composition. Ce langage permet aux utilisateurs de construire des scénarios d'automatisation plus expressifs. La description des objets et leur composition sont traduites dans une spécification formelle à partir de laquelle le comportement complet de l'application est identifié. Afin de garantir une conception correcte de l'application avant le déploiement, cette thèse propose de valider un ensemble de propriétés génériques et spécifiques sur le comportement complet de l'application. En outre, les applications déployées peuvent être reconfigurées au cours de leur cycle de vie. Le travail supporte la reconfiguration en spécifiant des propriétés de reconfiguration qui permettent de comparer qualitativement le comportement de la nouvelle configuration avec la configuration d'origine. La mise en œuvre de toutes les propositions est réalisée en étendant la plate-forme Mozilla WebThings. Un nouvel ensemble d'interfaces utilisateur est construit pour prendre en charge la composition des règles et la reconfiguration de l’application. Un composant permettant de transformer automatiquement les modèles WoT en modèles formels, pleinement intégré au sein d’une boite à outils de vérification formelle a été développé. Enfin, un moteur de déploiement est construit en étendant les API de WebThings. Il dirige le déploiement des applications et des reconfigurations en respectant la sémantique de leur composition
The Internet of Things (IoT) applications are built by interconnecting everyday objects over a network. These objects or devices sense the environment around them, and their network capabilities allow them to communicate with other objects to perform utilitarian tasks. One of the popular ways to build IoT applications in the consumer domain is by combining different objects using Event-Condition-Action (ECA) rules. These rules are typically in the form of IF something-happens THEN do-something. The Web of Things (WoT) are a set of standards and principles that integrate architectural styles and capabilities of web to the IoT. Even though WoT architecture coupled with ECA rules simplifies the building of IoT applications to a large extent, there are still challenges in making end-users develop advanced applications in a simple yet correct fashion due to dynamic, reactive and heterogeneous nature of IoT systems.The broad objective of this work is to leverage formal methods to provide end-users of IoT applications certain level of guarantee at design time that the designed application will behave as intended upon deployment. In this context, we propose a formal development framework based on the WoT. The objects are described using a behavioural model derived from the Thing Description specification of WoT. Then, the applications are designed not only by specifying individual ECA rules, but also by composing these rules using a composition language. The language enables users to build more expressive automation scenarios. The description of the objects and their composition are encoded in a formal specification from which the complete behaviour of the application is identified. In order to guarantee correct design of the application, this work proposes a set of generic and application-specific properties that can be validated on the complete behaviour before deployment. Further, the deployed applications may be reconfigured during their application lifecycle. The work supports reconfiguration by specifying reconfiguration properties that allow one to qualitatively compare the behaviour of the new configuration with the original configuration. The implementation of all the proposals is achieved by extending Mozilla WebThings platform. A new set of user interfaces are built to support the composition of rules and reconfiguration. A model transformation component which transforms WoT models to formal models and an integration with formal verification toolbox are implemented to enable automation. Finally, a deployment engine is built by extending WebThings APIs. It directs the deployment of applications and reconfigurations respecting their composition semantics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ahmad, Alexandre. „Animation de structures déformables et modélisation des interactions avec un fluide basées sur des modèles physiques“. Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/4f73d6f8-b8f0-4794-924b-8f827db44689/blobholder:0/2007LIMO4046.pdf.

Der volle Inhalt der Quelle
Annotation:
Je présente dans cette thèse des travaux concernant la simulation d'interactions entre un fluide et des membranes déformables. Ce sujet ne manque pas d'applications puisque l'interaction d'un fluide avec des feuilles, des tissus ou même des nageoires de poisson est un scénario courant. Pourtant, peu de travaux en synthèse d'images se sont intéressés à reproduire ce phénomène. Pour ce faire, je propose un algorithme de réaction de contacts entre un fluide Lagrangien et une membrane déformable qui est indépendant du pas d'intégration temporelle. Afin de pallier les artefacts visuels dus à des triangles, issus du processus d'extraction de surface du fluide, qui passent au travers de la membrane lors d'interactions, je présente une technique qui projette la portion de volume erronée le long de la membrane. De plus, une paramétrisation intuitive de coefficients hétérogènes de friction sur une surface est exposée. Je présente également deux modèles d'optimisation. Le premier modèle propose de filtrer les vitesses de particules calculées par une méthode explicite afin de réduire la forte contrainte sur le pas d'intégration temporelle. Des analyses fréquentielles permettent de quantifier cette réduction. Le deuxième modèle est une structure de subdivision spatiale dynamique qui détermine efficacement le voisinage d'un point et d'un triangle. Cette structure a pour but de réduire les temps de calculs des processus de détermination du voisinage pour les fluides Lagrangiens, mais aussi ceux de la détection de collisions et enfin ceux de l'extraction de surface
The presented works' main focus is the interaction of liquids and thin shells, such as sheets of paper, fish fins and even clothes. Even though such interactions is an every day scenario, few research work in the computer graphics community have investigated this phenomenon. Thereby, I propose an algorithm which resolves contacts between Lagrangian fluids and deformable thin shells. Visual artefacts may appear during the surface extraction procedure due to the proximity of the fluids and the shells. Thus, to avoid such artefacts, I propose a visibility algorithm which projects the undesired overlapping volume of liquid onto the thin shells' surface. In addition, an intuitive parametrisation model for the definition of heterogeneous friction coefficients on a surface is presented. I also propose two optimisation methods. The first one reduces the well-known dependency of numerical stability and the timestep when using explicit schemes by filtering particles' velocities. This reduction is quantified with the use of frequency analysis. The second optimisation method is a unified dynamic spatial acceleration model, composed of a hierarchical hash table data structure, that speeds up the particle neighbourhood query and the collision broad phase. The proposed unified model is besides used to efficiently prune unnecessary computations during the surface extraction procedure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ksontini, Mohamed. „Mise en oeuvre de lois de commande basées sur des multi-modèles continus de type Takagi-Sugeno“. Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/010633b8-054b-44a7-a83b-2bf46a1dfd68.

Der volle Inhalt der Quelle
Annotation:
Dans ce mémoire, l'étude de la stabilisation des approches multi modèles est considérée. Nous avons essayé de faire un lien entre l'approche multi modèles adaptatif et l'approche TS. La proposition d'une nouvelle architecture de commande pour l'approche adaptative a permis de stabiliser la boucle fermée complète. Une comparaison de robustesse sur le classique pendule inversé a montré les caractéristiques de l'approche. Nous avons proposé dans la troisième partie des nouvelles conditions de stabilisation des modèles flous de type TS qui permettent de réduire le nombre de LMI et ou de réduire le conservatisme des conditions déjà proposées. L'intérêt étant double, d'une part obtenir des conditions LMI faciles à mettre en ouvre pour les systèmes ayant un nombre de règles important, d'autre part améliorer les résultats issus de la littérature. L'ensemble des ces résultats est basé principalement sur l'utilisation du lemme d'élimination. Une première illustration de ces conditions est faite sur un système TORA. Enfin l'application des ces résultats sur un système de mélange de liquides qui servira d'étude de dimensionnement pour un projet de prototype a donné des résultats satisfaisants en régulation et poursuite
In this document we dealt with the stabilization of the multi models approaches. We tried to make a link between the adaptive multi models approach and the TS approach. A new control architecture for the adaptive approach has been proposed allowing the stabilisation of the whole closed loop. A comparison about the robustness for the classical inverted pendulum shows the features of this approach. In the second part, we proposed new stabilisation conditions of TS fuzzy models allowing to reduce the number of LMI and or to reduce the conservatism of the conditions. With such conditions, we get some easy LMI conditions for systems having an important number of rules, and we also improve results given in the literature. These results are based mainly on the use of the elimination lemma. A first illustration of these conditions is carried out on a TORA system. Finally the application of these conditions on a mixture liquids system that will be useful in dimensioning a project of prototype has given good results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Mehr Quellen

Buchteile zum Thema "Corrections basées sur des modèles"

1

PARDI, Fabio. „Inférence phylogénétique : méthodes basées sur les distances“. In Modèles et méthodes pour l’évolution biologique, 151–76. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9069.ch6.

Der volle Inhalt der Quelle
Annotation:
Une approche intuitive pour reconstruire les arbres évolutifs consiste à regrouper les espèces ou les séquences génétiques selon leur ressemblance. Différentes méthodes formelles ont été développées afin de déterminer un arbre phylogénétique à partir d'une mesure de dissimilarité. Celles-ci ont l'avantage d'être beaucoup plus rapides que les méthodes basées sur des modèles d'évolution et sont donc couramment utilisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

WANG, Ye, und Vicenç PUIG. „Détection et isolation de défauts basées sur des ensembles“. In Diagnostic et commande à tolérance de fautes 1, 115–43. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch3.

Der volle Inhalt der Quelle
Annotation:
La détection de fautes dans les processus dynamiques utilise des modèles pour vérifier la cohérence des comportements observés, mais des écarts entre le comportement modélisé et réel introduisent de l'incertitude. Les méthodes robustes de diagnostic des défauts, actives ou passives, sont étudiées, avec un accent sur la propagation de l'incertitude. L'approche passive, notamment basée sur des modèles à intervalles, est discutée avec des exemples d'applications.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

MATTRAND, Cécile, Pierre BEAUREPAIRE und Nicolas GAYTON. „Méthodes adaptatives basées sur le krigeage pour l’évaluation de probabilités de défaillance : focus sur les méthodes AK“. In Ingénierie mécanique en contexte incertain, 223–54. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch6.

Der volle Inhalt der Quelle
Annotation:
Cette étude fournit au lecteur un aperçu des méthodes adaptatives récentes de calcul de probabilité de défaillance basées sur l’utilisation du krigeage (dit « processus gaussien ») avec un focus sur les méthodes nommées AK (Adaptative and Kriging-based methods). Ces méthodes sont particulièrement efficaces en présence de modèles de comportement coûteux à évaluer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

BELMONTE, Romain, Pierre TIRILLY, Ioan Marius BILASCO, Nacim IHADDADENE und Chaabane DJERABA. „Approches de détection des points de repère faciaux“. In Analyse faciale en conditions non contrôlées, 15–74. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9111.ch1.

Der volle Inhalt der Quelle
Annotation:
Les premières tentatives concernant la détection des points de repère faciaux remontent aux années 1990. Les efforts entrepris pour résoudre ce problème se sont longtemps focalisés sur les images fixes, et de nombreux travaux ont été publiés. Ce chapitre explore les deux principales catégories d'approches, génératives et discriminatives, ainsi que leurs développements. Les méthodes génératives construisent généralement un modèle de la forme et de l'apparence. Contrairement à ces approches qui reposent sur des modèles statistiques paramétriques, les approches discriminatives apprennent une correspondance entre l'image et la forme du visage. De nos jours, les réseaux de neurones convolutionnels constituent l'architecture couramment utilisée pour traiter les images. Récemment, une analyse comparative des approches de détection des points de repère faciaux basées sur la vidéo a montré que la stratégie la plus populaire pour ce problème est le suivi par détection.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

ALLAERT, Benjamin, Ioan Marius BILASCO und Chaabane DJERABA. „Vers une adaptation aux problèmes de pose“. In Analyse faciale en conditions non contrôlées, 303–19. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9111.ch8.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre explique comment les problèmes de variations de pose et de grands déplacements sont exposés dans des bases de données d'apprentissage récentes. Il passe en revue les systèmes récents d'analyse des expressions faciales utilisés sur ces bases de données, en mettant l'accent sur les méthodes de normalisation utilisées. Les méthodes de normalisation basées sur des modèles 3D progressent constamment pour répondre aux défis posés par l'acquisition de données dans des conditions naturelles. Le chapitre détaille le système d'acquisition innovant appelé Simultaneous Natural and Posed Facial expression (SNaP-2DFe) permettant de capturer simultanément un visage dans un plan fixe et en mouvement. Il se positionne par rapport aux différentes méthodes de normalisation utilisées aujourd'hui pour caractériser les expressions faciales en présence de variations de pose et de déplacements importants. Il présente une solution capable de séparer la source de mouvement liée au mouvement de la tête et la source de mouvement liée aux expressions faciales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

ZANETTI, Massimo, Francesca BOVOLO und Lorenzo BRUZZONE. „Statistiques par différences pour les changements multispectraux“. In Détection de changements et analyse des séries temporelles d’images 1, 247–303. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch9.

Der volle Inhalt der Quelle
Annotation:
Dans ce chapitre, nous introduisons deux modèles statistiques pour la description de la distribution des vecteurs de différences spectrales, et nous en tirons des méthodes de détection de changements basées sur une différence d'images. Le chapitre introduit d'abord le modèle standard à deux classes inchangé/changé pour la classification binaire. Lorsqu'on considère les informations de module, le modèle à deux classes peut être décrit par un mélange de distributions Rayleigh-Rice. L'estimation de paramètres de ce mélange est une tâche non triviale car ce modèle est non conventionnel. Par conséquent, une version de l'algorithme espérance-maximisation (EM), qui est adaptée spécifiquement au mélange Rayleigh-Rice, est présentée. Le chapitre propose alors une généralisation du modèle à deux classes inchangé/changé au cas multiclasse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Saikouk, Tarik, und Nejib Fattam. „Cas en logistique et Supply Chain Management“. In Cas en logistique et Supply Chain Management, 61–72. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.lavas.2023.01.0061.

Der volle Inhalt der Quelle
Annotation:
Énoncé Monastirakio-Delta, un grand constructeur aéronautique représenté par son PDG M. Dimitripolous, décide de confier la conception et le pilotage de sa SC à un Prestataire de Services Logistiques de type Fourth Party Logistics (4PL) dénommé Ellinikos-Logis. Le 4PL se définit comme étant « un intégrateur qui rassemble ses propres ressources, capacités, technologies et celles d’autres prestataires de services pour concevoir et gérer des chaînes logistiques complexes » (Bade et Mueller, 1999, p. 78). C’est une configuration organisationnelle d’intermédiation encastrée dans un système de relations sociales et économiques qui sont à la fois interpersonnelles et inter-organisationnelles à savoir les Supply Chains (SC) (Saikouk et Fattam, 2022). Cet acteur majeur mobilise des relations, basées principalement sur la confiance, afin de compenser le manque des ressources physiques (Fattam et Paché, 2017 ; Ounnar et Pujo, 2018). Étant organisateur logistique incontournable sans moyens physiques et régulateur de flux, le 4PL gère une myriade de fournisseurs et opère une parfaite communication au niveau des interfaces (Krakovics et al ., 2008). Il offre des services dépassant la vision exclusivement opérationnelle pour proposer des solutions de conseils aussi bien que la conception des modèles d’optimisation (Huang et al ., 2015 ; Saikouk et Fattam, 2022 ; Saglietto, 2009). Comme c’est le cas de plusieurs PDG des grands groupes, issus de grandes écoles, ayant des diplômes MBA, etc., un tel choix est souvent fait sur la base de critères assez objectifs et communément acceptables par les collaborateurs. Ellinikos-Logis, représenté par son Vice-Président M. Triantafellou, est une grande entreprise disposant d’une réputation infaillible, d’un grand réseau mondial de partenaires, d’actifs logistiques partout dans le globe, etc. Les compétences organisationnelles et techniques de ce coordinateur de réseaux complexes sont réunies pour une meilleure offre de prestations pour le compte de son client. Le 4PL, qui joue un rôle de chef d’orchestre dans la SC, réunit ainsi une meilleure combinaison de partenaires assurant la rentabilité et la durabilité des SC (Figure 1).
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Corrections basées sur des modèles"

1

Catros, S. „A quoi servent les Bio-Imprimantes 3D ?“ In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Der volle Inhalt der Quelle
Annotation:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Corrections basées sur des modèles"

1

Logan, C. E., H. A. J. Russell, A. K. Burt, A. Burt, R. P. M. Mulligan, D. R. Sharpe und A. F. Bajc. A three-dimensional surficial geology model of southern Ontario. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pudw24j7tx.

Der volle Inhalt der Quelle
Annotation:
Afin d'améliorer les connaissances géoscientifiques sur les eaux souterraines dans le sud de l'Ontario, un modèle régional tridimensionnel de la géologie des formations superficielles du sud de l'Ontario a été élaboré dans le cadre d'une collaboration entre la Commission Géologique de l'Ontario et la Commission Géologique du Canada. Couvrant une superficie d'environ 66 870 kilomètres carrés, le modèle est une synthèse des modèles géologiques existants, de la cartographie de la géologie de surface et des données de subsurface. Le modèle est une reclassification simplifiée en 9 couches de nombreuses formations sédimentaires superficielles locales cartographiées, dont l'épaisseur dépasse par endroits 200 m et dont le volume total est d'environ 2 455 kilomètres cubes. Le modèle intègre la cartographie de la géologie de surface à l'échelle 1:50 000 avec un modèle numérique d'élévation (MNE) topographique corrigé bathymétriquement de 90 m et 8 modèles 3D locaux existants. Les données archivées sur le sous-sol comprennent 10 237 forages géotechniques et stratigraphiques, 3 312 pics de levés géophysiques, 15 902 sites et sections de cartographie de terrain, 537 puits de surveillance et d'approvisionnement en eau et 282 995 enregistrements de puits d'eau. Correspondant approximativement aux couches aquifères et aquitards régionaux, les couches primaires du modèle sont (de la plus ancienne à la plus jeune) : Le substratum rocheux, l'aquifère de base, les sédiments inférieurs, le till régional, le remplissage de chenaux après le till régional, les sédiments fluvioglaciaires, les boues après le till régional, les sables glaciolacustres et les sédiments récents/organiques. La modélisation a été réalisée à l'aide d'une application de modélisation implicite (LeapFrog®) complétée par une approche de la classification des données basée sur les connaissances d'experts et une procédure de système expert basée sur des règles pour l'interprétation et la validation des données. Un cycle itératif de codage automatisé des données, de construction de modèles intermédiaires et de corrections manuelles des données, d'évaluations d'experts et de révisions a conduit au modèle 3D final. Ce modèle de géologie de surface complète le développement d'une série de modèles géologiques et hydrogéologiques régionaux en 3D pour le sud de l'Ontario.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Moran, Kevin, Dalibor Stevanovic und Adam Kader Touré. Le pessimisme risque de nous plonger dans une récession. CIRANO, September 2023. http://dx.doi.org/10.54932/htmw1091.

Der volle Inhalt der Quelle
Annotation:
Depuis plus d’un an, différentes enquêtes rapportent que les entreprises et consommateurs canadiens sont plutôt pessimistes quant à la situation économique. Évaluer dans quelle mesure cette vague de pessimisme peut causer un ralentissement économique représente un défi méthodologique auquel les auteurs s’attaquent dans une récente étude CIRANO. À partir de données historiques canadiennes et américaines et d’analyses de causalité basées sur des modèles vectoriels autorégressifs, les auteurs suggèrent que les corrélations entre confiance et activité économique contiennent effectivement une composante causale. En conséquence, les récentes baisses observées dans les mesures de confiance pourraient mener à un ralentissement économique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie