Literatura científica selecionada sobre o tema "Méthodes basées sur des exemples"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Méthodes basées sur des exemples".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Méthodes basées sur des exemples"

1

Le Maire, Pauline, e Marc Munschy. "L'effet de la géométrie sur la précision dans l'estimation de la profondeur d'un réseau de type pipeline avec la méthode magnétique". E3S Web of Conferences 342 (2022): 02006. http://dx.doi.org/10.1051/e3sconf/202234202006.

Texto completo da fonte
Resumo:
Dans le secteur du BTP, le positionnement des réseaux est réglementé afin d’éviter les accidents. Il existe de nombreuses méthodes géophysiques pour aider à leurs positionnements comme l’électromagnétisme ou l’acoustique. Ces méthodes ont plusieurs inconvénients, par exemple la nécessité d’un accès au réseau afin d’injecter un signal ou une mise en place chronophage qui rend difficile la détection sur de très grandes surfaces. Dans ce travail, nous allons nous focaliser sur l’utilisation de la méthode magnétique pour la caractérisation de pipeline en domaine non urbain. Nous proposons une étude afin de quantifier l’effet de la géométrie sur la précision dans l’estimation de la profondeur. Les résultats obtenus pour trois méthodes basées sur des hypothèses de géométries différentes (3D/2D/hybride) seront comparés via une application sur des cas synthétiques. Les méthodes utilisées sont basées sur l’utilisation du signal analytique à deux et à trois dimensions.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Mudry, J. "L'analyse discriminante, un puissant moyen de validation des hypothèses hydrogéologiques". Revue des sciences de l'eau 4, n.º 1 (12 de abril de 2005): 19–37. http://dx.doi.org/10.7202/705088ar.

Texto completo da fonte
Resumo:
L'étude des tableaux de données hydrochimiques acquises au cours de campagnes synchrones (« instantanés ») ou de suivis diachroniques à pas régulier (hebdomadaire, quotidien, horaire) s'opère généralement en résumant l'information par des méthodes statistiques. Ces méthodes descriptives, qui négligent nécessairement une partie de l'information initiale, permettent l'interprétation de la structure du tableau de données en termes de fonctionnement hydrocinématique (BAKALOWICZ, 1979, 1982, MUDRY et BLAVOUX, 1988, ROLET et SEGUIN, 1986 8 et b). Ces méthodes, fondées sur l'analyse d'une seule population statistique (bi ou multidimensionnelle) impliquent un mode de raisonnement déductif. Leur application, ainsi que l'examen du tableau des données brutes (ou de ses représentations graphiques), peut mettre en évidence des sous-groupes fondés sur des critères hydrogéologiques. La réalité de ces sous-groupes peut être testée à l'aide de méthodes statistiques basées sur l'analyse de la variance. Certaines méthodes utilisent le rapport des variances qu'elles comparent à la distribution de Snedecor (analyse de la variance à une ou deux voies), d'autres comparent des variances multidimensionnelles intraclasses à la variance interclasses, c'est le cas de l'analyse discriminante. Les sous-groupes constituent une variable qualitative dont la pertinence peut être démontrée par la calcul. L'analyse discriminante apparaît donc comme un outil décisionnel. Le présent article présente brièvement la méthode du point de vue statistique et montre deux exemples d'application à des sources karstiques. Le premier exemple traite de l'appartenance chimique d'une phase de basses eaux à la petite crue qui la précède et non à un tarissement au sens hydrocinématique. L'analyse discriminante permet d'affirmer qu'une recharge peu perceptible sur l'hydrogramme de la source amène une évolution chimique irréversible de l'eau de la réserve, responsable des phénomènes d'hystérésis observés sur les courbes concentration-débit. Ce cas est celui de l'aquifère de la Fontaine de Vaucluse (Sud-Est de la France) pendant un suivi quotidien d'étiage. Le second exemple permet de rattacher, par son comportement physico-chimique hebdomadaire, une émergence karstique à une autre et non à une troisième. Ce cas est celui du karst de la Rochefoucauld (Charente), avec les sources du Bouillant, de la Font de Lussac et de la Lèche. Les sources du Bouillant et de la Font de Lussac ont un comportement physico-chimique semblable, alors que la Lèche réagit de manière totalement indépendante. Elle constitue un système globalement distinct du point de vue hydrocinématique, ce qui permet de minimiser les relations mises en évidence par traçage artificiel entre les deux systèmes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Guillon, Grégoire, Pascal Honvault, Maxence Lepers, François Lique e Thierry Stoecklin. "Collisions moléculaires en phase gazeuse". Reflets de la physique, n.º 61 (março de 2019): 26–31. http://dx.doi.org/10.1051/refdp/201961026.

Texto completo da fonte
Resumo:
L’étude théorique des collisions entre atomes et molécules permet, grâce à la résolution d’état à état des simulations numériques basées sur la physique quantique, une description détaillée des mécanismes mis en jeu et contribue grandement à améliorer les modèles atmosphériques et astrophysiques. Dans cet article, après avoir présenté les méthodes de dynamique actuelles, nous donnons des exemples clés d’intérêt pour le milieu interstellaire, l’atmosphère terrestre et les milieux (ultra)froids, et présentons les défis majeurs à relever.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Lapointe, Sophie. "La posture du chercheur : liens émergents entre la MTE et la psychanalyse lacanienne". Approches inductives 4, n.º 1 (12 de abril de 2017): 144–73. http://dx.doi.org/10.7202/1039513ar.

Texto completo da fonte
Resumo:
L’objectif de cet article est de démontrer que jumeler la méthodologie de la théorisation enracinée (MTE) à une écoute et une analyse d’orientation psychanalytique favorise la compréhension de phénomènes sociaux complexes. La posture du chercheur qui est présentée respecte à la fois la méthode propre à la MTE et celle du travail de recherche du psychanalyste. L’épistémologie de ces méthodes est centrée sur l’élaboration par le récit du vécu des participants représentant leurs histoires et leurs cultures ainsi que sur l’écoute et l’analyse de la structure langagière qui permet de rendre compte de l’organisation de l’inconscient. Le fait de rassembler ces méthodes apporte, d’une part, un savoir heuristique obtenu par une démarche itérative afin d’arriver à produire de nouvelles théories et contribue, d’autre part, à une quête centrée sur la vérité du sujet. Une nouvelle compréhension du phénomène devient alors accessible, puisqu’elle est basée sur une logique de la découverte. Les exemples présentés sont tirés d’une étude psychanalytique sur le phénomène d’intimidation chez des pairs à l’adolescence.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Vergniault, Christophe, Edouard Buchoud, Joséphine Boisson-Gaboriau e Amélie Hallier. "Application des méthodes géophysiques pour le diagnostic de l’aléa cavités sur des ouvrages de grands linéaires, en contexte ferroviaire et hydraulique". Revue Française de Géotechnique, n.º 172 (2022): 3. http://dx.doi.org/10.1051/geotech/2022006.

Texto completo da fonte
Resumo:
Cet article traduit la volonté de deux maîtres d’ouvrages (ayant une compétence interne d’ingénierie conseils en géophysique), que sont SNCF Réseau et EDF, de mettre en commun leurs retours d’expériences pour améliorer la gestion des risques liés à l’aléa cavités souterraines sur des ouvrages de grands linéaires, en contexte ferroviaire ou hydraulique. Cette coopération a permis de valider plusieurs méthodes de diagnostic, par reconnaissance et auscultation, afin de détecter des cavités souterraines et de suivre leur évolution : dans deux contextes géologiques distincts (craie et marnes à gypse), les méthodes sismiques actives et passives basées sur les ondes de surface ont confirmé leurs performances théoriques, aussi bien pour des reconnaissances que de la surveillance en continu : (1) dans un contexte de cavités anthropiques dans la craie et hors nappe, les exemples présentés valident l’intérêt de certaines méthodes industrielles de reconnaissance (DCOS®, ParSeis®) et laissent espérer une industrialisation prochaine de plusieurs autres (SI active et passive), (2) dans le contexte de dissolution de gypse, ces mêmes méthodes utilisant le signal généré par les circulations ferroviaires se sont avérées très pertinentes pour assurer une surveillance en continu, via un monitoring 4D, du sol support de la plateforme ferroviaire. Le résultat de ce développement permettra de s’inscrire dans une démarche de maintenance prédictive vis-à-vis du risque fontis ; dans le contexte de dissolution de gypse, la mesure de déformation par fibre optique en place dans un remblai a démontré sa pertinence pour capter l’amorce de remontée d’un fontis, avant même l’apparition d’indice en surface. Enfin, il faut noter que les méthodes de reconnaissance et d’auscultation, présentées dans les deux premiers cas d’étude, pourraient favorablement être réalisées en utilisant une fibre optique comme celle exploitée dans le troisième cas d’étude, mais il faudrait un interrogateur optique différent de type DAS. Ceci est une perspective à laquelle s’intéressent les deux maîtres d’ouvrages.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Hochedez, Camille, David Lessault e Pierre Pistre. "Enquêter les migrations internationales dans des espaces de faible densité. Retours réflexifs sur l’articulation d’approches statistiques et d’approches de terrain plurielles". Annales de géographie N° 755, n.º 1 (6 de fevereiro de 2024): 25–51. http://dx.doi.org/10.3917/ag.755.0025.

Texto completo da fonte
Resumo:
Ce texte propose un retour réflexif sur la méthodologie déployée dans le cadre du programme ANR CAMIGRI pour étudier les recompositions des espaces ruraux français au prisme des migrations internationales. Pour pallier l’invisibilité de certaines présences étrangères dans les bases de données ou sur le terrain, la méthode articule traitements statistiques aux échelles nationale et intercommunale, et études de cas par suivi de lieux emblématiques de situations migratoires dans 3 terrains du grand quart sud-ouest. Elle permet de capter la diversité des formes de présences étrangères et leurs effets sur les territoires, en s’appuyant pour une bonne part sur des exemples agricoles. Elle repose aussi sur la mobilisation d’outils originaux (grille biographique, photographie, carnets) pour étudier et suivre les présences étrangères sur le temps long dans les espaces ruraux. Les méthodes mixtes s’apparentent ici à une posture de recherche qui repose non seulement sur l’articulation d’approches qualitatives et quantitatives, mais aussi de champs théoriques (études rurales/études migratoires) et de compétences des chercheurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Lesnoff, Matthieu. "Evaluation d’une méthode d’enquête rétrospective sur une période de douze mois pour estimer les taux de mise bas et de mortalité du bétail dans un système d’élevage africain traditionnel". Revue d’élevage et de médecine vétérinaire des pays tropicaux 62, n.º 1 (1 de janeiro de 2009): 49. http://dx.doi.org/10.19182/remvt.10093.

Texto completo da fonte
Resumo:
Les taux annuels de mise bas et de mortalité sont des données de base nécessaires pour quantifier la productivité des cheptels domestiques tropicaux élevés en milieux extensifs. Les suivis de troupeaux avec bouclage des animaux sont une méthode de référence pour estimer ces paramètres sur le terrain. Les méthodes transversales rétrospectives, basées sur des entretiens avec les éleveurs et leur mémoire à court ou long terme de la démographie des troupeaux, sont des alternatives. La présente étude a évalué une méthode rétrospective (12MO) pour estimer les taux de mise bas et de mortalité pour la période des douze derniers mois précédents l’enquête. Le biais de différentes approximations utilisées dans les calculs a été évalué d’après plusieurs jeux de données disponibles et collectées sur les bovins et les petits ruminants au Sénégal. Le principal résultat de l’étude a été la variabilité potentiellement élevée du biais (en particulier pour le taux de mortalité des petits ruminants pour lequel le biais relatif a varié entre -60 et 96 p. 100 dans la classe d’âge « 0 à 1 an »), malgré un biais médian acceptable (la médiane de biais relatif a été ≤ 6 p. 100 en valeur absolue). Les méthodes rétrospectives telles que 12MO devraient être utilisées avec parcimonie (par exemple pour évaluer approximativement l’impact immédiat de chocs importants ou d’innovations) et leurs résultats interprétés avec précaution. Lorsque cela est possible, les suivis de troupeaux (avec ou sans identification des animaux) sur plusieurs années consécutives devraient être privilégiés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Séby, Fabienne, Jean Dumont, Christine Gleyzes, Mathieu Menta, Véronique Vacchina e Maïté Bueno. "Analyse de formes chimiques et de nanoparticules dans les échantillons d’eau : méthodes analytiques, préconcentration et validation". Revue des sciences de l’eau 28, n.º 1 (21 de abril de 2015): 27–32. http://dx.doi.org/10.7202/1030004ar.

Texto completo da fonte
Resumo:
Il est maintenant reconnu que la mesure de la concentration totale d’un élément ne permet pas d’obtenir d’information fiable sur son impact environnemental et sa toxicité, ces éléments pouvant être présents sous différentes formes chimiques ou à l’état de nanoparticules (NPs). Il est alors nécessaire de faire appel à des techniques de fractionnement en taille pour les NPs ou à des analyses de spéciation permettant d'identifier et doser les différentes formes chimiques des éléments. Cette approche nécessite de disposer de protocoles d’échantillonnage, de conservation et de préparation d’échantillon stricts qui ne modifient pas la répartition des formes chimiques, notamment. Étant donné les nouvelles exigences des normes, cette approche nécessite également des outils analytiques de plus en plus précis, sensibles et robustes. Le couplage de techniques séparatives basées sur la chromatographie (liquide ou gazeuse) ou le fractionnement de flux, d’une part, et la spectrométrie de masse à plasma induit (ICP MS), d’autre part, présente un réel potentiel pour ces analyses. Ces approches sont détaillées d’une manière générale en termes de potentiels et de performances analytiques et des applications sont présentées pour différents éléments (As, Hg, Sn, Cr ou Sb). Au travers de ces différents exemples, sont particulièrement abordés :
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Emery, Peter G. "Text Classification and Text Analysis in Advances Translation Teaching". Meta 36, n.º 4 (30 de setembro de 2002): 567–77. http://dx.doi.org/10.7202/002707ar.

Texto completo da fonte
Resumo:
Résumé On étudie d'abord les différentes bases théoriques sur lesquelles se fonde la classification des textes tout en préconisant comme critère prépondérant le domaine ou « contexte social ». On traite des méthodes d'analyse de textes en tenant compte de certaines théories linguistiques. Enfin, on souligne l'importance de l'analyse textuelle dans la pédagogie de la traduction. Les exemples illuslrafifs sont tirés de traductions arabe/anglais.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Langlands, Robert P. "Un nouveau point de repère dans la théorie des formes automorphes". Canadian Mathematical Bulletin 50, n.º 2 (1 de junho de 2007): 243–67. http://dx.doi.org/10.4153/cmb-2007-026-4.

Texto completo da fonte
Resumo:
Ceux qui connaissent l’auteur et ses écrits, comme par exemple [L1] et [L2], savent que la notion de fonctorialité et les conjectures rattachées à celle-ci ont été introduites —en suivant ce que Artin avait fait pour un ensemble plus restreint de fonctions— pour aborder le problème de la prolongation analytique générale des fonctions L-automorphes. Ils savent en plus que je suis d’avis que seules les méthodes basées sur la formule des traces pourront aller au fond des problèmes. Il n’en reste pas moins que malgré de récents progrès importants sur le lemme fondamental et la formule des traces nous sommes bien loin de notre but.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Méthodes basées sur des exemples"

1

Sallaberry, Arnaud. "Visualisation d'information : de la théorie sémiotique à des exemples pratiques basés sur la représentation de graphes et d'hypergraphes". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00646397.

Texto completo da fonte
Resumo:
La visualisation d'information est une discipline récente en pleine expansion et qui a pour objet l'étude des méthodes de représentation visuelle de données abstraites, c'est-à-dire non géolocalisées. La sémiotique est quant à elle une discipline beaucoup plus ancienne (fin du XIXième siècle) qui s'intéresse aux divers systèmes de signes nécessaires aux processus de communication. A ce jour, peu de travaux ont été réalisés pour mettre en parallèle ces deux disciplines. C'est pourquoi le premier chapitre de cette thèse est dédié à l'étude de la visualisation d'information selon les paradigmes élaborés par son ainée tout au long du XXième siècle. Nous montrons en particulier comment l'un des modèles les plus aboutis de validation de visualisations (modèle imbriqué de Tamara Munzner) correspond au processus d'étude sémiotique d'énoncés. Le second chapitre est consacré à la visualisation de graphe, outil de modélisation puissant de divers ensembles de données abstraites. Nous proposons d'une part une application permettant de visualiser et de naviguer à travers les pages Internet retournées par un moteur de recherche et d'autre part un algorithme de visualisation de hiérarchies dynamiques sous forme de "cartes géographiques". Enfin, nous évoquons dans le troisième chapitre un autre outil de modélisation de données abstraites : les hypergraphes. Nous proposons des résultats théoriques concernant leur représentation et donnons une ébauche de solution permettant de les visualiser.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Barroso, Nicolas. "Génération d'images intermédiaires pour la création d'animations 2D stylisées à base de marques". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES083.

Texto completo da fonte
Resumo:
Dans le cadre de ma thèse, je m'intéresse à la problématique de la création d'animations 2D traditionnelles, où toutes les images sont réalisées à la main. Je cherche à explorer comment l'ordinateur peut aider les artistes à produire de manière plus efficace sans pour autant empiéter sur le spectre de la création artistique. Pour répondre à ce problème, mes travaux se placent dans le domaine des méthodes automatiques, où l'animateur travaille de manière itérative avec l'ordinateur. Je propose une méthode qui, à partir de deux images clés et d'une série de champs vectoriels 2D décrivant le mouvement dans l'espace image de l'animation, génère des images intermédiaires et reproduit le style donné en exemple. Ma méthode se situe à l'intersection de deux techniques manuelles d'animation : l'animation pose à pose et l'animation sous la caméra, et assure un contrôle fort en permettant d'éditer n'importe quelle image générée de la même manière que celles données en exemple. Mes travaux englobent plusieurs domaines, notamment l'analyse du mouvement, le contrôle de courbe 2D, le rendu à base de marques et la simulation de la peinture
As part of my thesis, I am interested in the issue of creating traditional 2D animations, where all the images are handcrafted. Specifically, I explore how computers can assist artists in producing animations efficiently without reducing the artistic creative process. To address this problem, my work falls within the scope of automatic methods, where the animator collaborates iteratively with the computer. I propose a method that takes two keyframe images and a series of 2D vector fields describing the motion in image space of the animation, and generates intermediate images while preserving the given style as an example. My method combines two manual animation techniques: pose-to-pose and frame-by-frame animation, providing strong control by allowing any generated image to be edited in the same way as the example images provided. My research covers several domains: motion analysis, 2D curve control, mark-based rendering, and paint simulation
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Bas, Patrick. "Méthodes de tatouage d'images basées sur le contenu". Grenoble INPG, 2000. http://www.theses.fr/2000INPG0089.

Texto completo da fonte
Resumo:
Le tatouage de document permet d'inserer une signature numerique dans un document de maniere imperceptible et indelebile. Nous presentons dans ce memoire differentes methodes de tatouage d'images numeriques basees sur le contenu. Apres avoir souligne les divers enjeux qu'offre ce domaine, nous rappelons son cadre theorique et les contraintes qui lui sont liees. Nous procedons ensuite a une classification des differents schemas rencontres dans la litterature. Nous distinguons les categories des schemas additifs, des schemas substitutifs et detaillons d'autres mecanismes utilises pour le tatouage des images couleur, des flux audio ou video. Les trois chapitres suivants constituent les apports majeurs developpes lors de cette these. L'idee developpee est d'utiliser le contenu de l'image, represente par les points d'interets, pour permettre une synchronisation de la signature lorsque l'image subit une transformation geometrique. Le cinquieme chapitre de cet ouvrage analyse differents detecteurs, il precise notamment les differents moyens d'augmenter leurs performances. Dans le chapitre suivant nous presentons un schema de tatouage par morphing de triangles predefinis. Cette methode utilise les points d'interets de l'image pour porter la signature. Le schema presente permet notamment de pouvoir retrouver la signature apres de nombreuses transformations ou attaques geometriques. Nous presentons dans le chapitre suivant un deuxieme schema de tatouage fonde sur l'insertion de similarites dans l'image. Ce schema permet egalement d'etre robuste a divers traitements d'images. Notre derniere contribution est presentee dans le huitieme chapitre ou nous analysons differents schemas de tatouage additifs dans le domaine spatial et presentons un procede d'insertion multi-couche qui permet d'inserer une signature composee d'un message au sein de l'image. Enfin, dans le dernier chapitre, nous concluons en soulignant les perceptives offertes par le tatouage de documents.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Texto completo da fonte
Resumo:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Bui, Huyen Chi. "Méthodes d'accès basées sur le codage réseau couche physique". Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0031.

Texto completo da fonte
Resumo:
Dans le domaine des réseaux satellitaires, l'apparition de terminaux interactifs à bas-prix nécessite le développement et la mise en œuvre de protocoles d'accès multiple capables de supporter différents profils d'utilisateurs. En particulier, l'Agence Spatiale Européenne (ESA) et le centre d'étude spatial allemand (DLR) ont récemment proposé des protocoles d'accès aléatoires basés sur le codage réseau couche physique et l'élimination itérative des interférences pour résoudre en partie le problème de collisions sur une voie de retour du type Slotted ALOHA. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une amélioration dans des méthodes d'accès aléatoires existantes. Nous introduisons Multi-Slot Coded Aloha (MuSCA) comme une nouvelle généralisation of CRDSA. Au lieu de transmettre des copies du même paquet, l'émetteur envoie plusieurs parties d'un mot de code d'un code correcteur d'erreurs ; chaque partie étant précédée d'un entête permettant de localiser les autres parties du mot de code. Au niveau du récepteur, toutes les parties envoyées par le même utilisateur, y compris celles qui sont interférées par d'autres signaux, participent au décodage. Le signal décodé est ensuite soustrait du signal total. Ainsi, l'interférence globale est réduite et les signaux restant ont plus de chances d'être décodés. Plusieurs méthodes d'analyse de performance basées sur des concepts théoriques (calcul de capacité, évolution des densités) et sur des simulations sont proposées. Les résultats obtenus montrent un gain très significatif de débit global comparé aux méthodes d'accès existantes. Ce gain peut encore être augmenté en variant le taux de découpe des mots de code. En modifiant certains de ces concepts, nous proposons également une application du codage réseau couche physique basée sur la superposition de modulations pour l'accès déterministe à la voie retour des communications par satellite. Une amélioration du débit est aussi obtenue par rapport à des stratégies plus classiques de multiplexage temporal
In the domain of satellite networks, the emergence of low-cost interactive terminals motivates the need to develop and implement multiple access protocols able to support different user profiles. In particular, the European Space Agency (ESA) and the German Aerospace Center (DLR) have recently proposed random access protocols such as Contention Resolution Diversity Coded ALOHA (CRDSA) and Irregular Repetition Slotted ALOHA (IRSA). These methods are based on physical-layer network coding and successive interference cancellation in order to attempt to solve the collisions problem on a return channel of type Slotted ALOHA.This thesis aims to provide improvements of existing random access methods. We introduce Multi-Slot Coded Aloha (MuSCA) as a new generalization of CRDSA. Instead of transmitting copies of the same packet, the transmitter sends several parts of a codeword of an error-correcting code ; each part is preceded by a header allowing to locate the other parts of the codeword. At the receiver side, all parts transmitted by the same user, including those are interfered by other signals, are involved in the decoding. The decoded signal is then subtracted from the total signal. Thus, the overall interference is reduced and the remaining signals are more likely to be decoded. Several methods of performance analysis based on theoretical concepts (capacity computation, density evolution) and simulations are proposed. The results obtained show a significant gain in terms of throughput compared to existing access methods. This gain can be even more increased by varying the codewords stamping rate. Following these concepts, we also propose an application of physical-layer network coding based on the superposition modulation for a deterministic access on a return channel of satellite communications. We observe a gain in terms of throughput compared to more conventional strategies such as the time division multiplexing
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Cruz, Rodriguez Lidice. "Méthodes de dynamique quantique ultrarapide basées sur la propagation de trajectoires". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30254/document.

Texto completo da fonte
Resumo:
Dans cette thèse, différentes méthodes de dynamique quantique basées sur la propagation de trajectoires sont développées. La première approche consiste en une développer global des champs hydrodynamiques sur une base de polynômes de Chebyshev. Ce schéma est utilisé pour étudier la dynamique vibrationnelle unidimensionnelle de paquets d'ondes dans des potentiels harmoniques et anharmoniques. Par la suite, une méthodologie différente est développée, qui, à partir d'un paramétrage précédemment proposé pour la densité quantique, permet de construire des potentiels d'interaction effectifs entre les pseudo-particules représentant la densité. Dans le cadre de cette approche, plusieurs problèmes de modélisation sont étudiés et des effets quantiques importants sont décrits, tels que l'énergie de point zéro, l'effet tunnel, la diffusion et la réflexion sur une barrière. La même approximation est utilisée pour l'étude de l'ionisation des atomes par laser. Dans une troisième approche, un potentiel quantique approximatif à plusieurs corps est dérivé pour décrire des matrices d'argon et de krypton contenant une impureté de sodium. Il est obtenu en proposant un ansatz approprié pour la fonction d'onde de l'état fondamental du solide. Le potentiel est utilisé dans les simulations de dynamique moléculaire pour obtenir les spectres d'absorption de l'atome de Na isolé dans les matrices cryogéniques
In this thesis different trajectory-based methods for the study of quantum mechanical phenomena are developed. The first approach is based on a global expansion of the hydrodynamic fields in Chebyshev polynomials. The scheme is used for the study of one-dimensional vibrational dynamics of bound wave packets in harmonic and anharmonic potentials. Furthermore, a different methodology is developed, which, starting from a parametrization previously proposed for the density, allows the construction of effective interaction potentials between the pseudo-particles representing the density. Within this approach several model problems are studied and important quantum mechanical effects such as, zero point energy, tunneling, barrier scattering and over barrier reflection are founded to be correctly described by the ensemble of interacting trajectories. The same approximation is used for study the laser-driven atom ionization. A third approach considered in this work consists in the derivation of an approximate many-body quantum potential for cryogenic Ar and Kr matrices with an embedded Na impurity. To this end, a suitable ansatz for the ground state wave function of the solid is proposed. This allows to construct an approximate quantum potential which is employed in molecular dynamics simulations to obtain the absorption spectra of the Na impurity isolated in the rare gas matrix
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Bois, Léo. "Méthodes numériques basées sur l'apprentissage pour les EDP hyperboliques et cinétiques". Electronic Thesis or Diss., Strasbourg, 2023. http://www.theses.fr/2023STRAD060.

Texto completo da fonte
Resumo:
On explore différentes applications des réseaux de neurones pour les méthodes numériques, dans le contexte de la simulation de fluides ou de plasmas.Une première application est l'apprentissage d'une fermeture pour un modèle macroscopique, à partir de données issues d'un modèle cinétique. On donne des résultats numériques pour l'équation de Vlasov-Poisson en 1D et l'équation de Boltzmann en 2D.Une deuxième application est l'apprentissage de paramètres dépendants du problème considéré dans les schémas numériques. On apprend ainsi un coefficient de viscosité artificielle pour un schéma de Galerkin discontinu, et une matrice de relaxation pour la méthode de Lattice-Boltzmann
Different applications of neural networks for numerical methods are explored, in the context of fluid or plasma simulation.A first application is the learning of a closure for a macroscopic model, based on data from a kinetic model. Numerical results are given for the Vlasov-Poisson equation in 1D and the Boltzmann equation in 2D.A second application is the learning of problem-dependent parameters in numerical schemes. In this way, an artificial viscosity coefficient is learned for a discontinuous Galerkin scheme, and a relaxation matrix for the Lattice-Boltzmann method
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Silveira, Filho Geraldo. "Contributions aux méthodes directes d'estimation et de commande basées sur la vision". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005340.

Texto completo da fonte
Resumo:
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Moalla, Koubaa Ikram. "Caractérisation des écritures médiévales par des méthodes statistiques basées sur la cooccurrences". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0128/these.pdf.

Texto completo da fonte
Resumo:
Cette thèse a pour objet l'élaboration de méthodologies d'analyse permettant de décrire et de comparer les écritures manuscrites anciennes, méthodologies d'analyse globale ne nécessitant pas segmentation. Elle propose de nouveaux descripteurs robustes basés sur des statistiques d'ordre 2, la contribution essentielle reposant sur la notion de cooccurrence généralisée qui mesure la loi de probabilité conjointe d'informations extraites des images ; c'est une extension de la cooccurrence des niveaux de gris, utilisée jusqu'à présent pour caractériser les textures qui nous a permis d'élaborer diverses cooccurrences, spatiales relatives aux orientations et aux courbures locales des formes, paramétriques qui mesurent l'évolution d'une image subissant des transformations successives. Le nombre de descripteurs obtenu étant très (trop) élevé, nous proposons des méthodes conçues à partir des plus récentes méthodes d'analyse statistique multidimensionnelle de réduction de ce nombre. Ces démarches nous ont conduit à introduire la notion de matrices de cooccurrences propres qui contiennent l'information essentielle permettant de décrire finement les images avec un nombre réduit de descripteurs. Dans la partie applicative nous proposons des méthodes de classification non supervisées d'écritures médiévales. Le nombre de groupes et leurs contenus dépendent des paramètres utilisés et des méthodes appliquées. Nous avons aussi développé un moteur de recherche d'écritures similaires. Dans le cadre du projet ANR-MCD Graphem, nous avons élaboré des méthodes permettant d'analyser et de suivre l'évolution des écritures du Moyen Age
[The purpose of this work consists to elaborate methodologies to describe and to compare a ancient handwritten writings. The developed image feature are global and do not require any segmentation. It proposes new robust features based on second order statistics. We introduce the generalized co-occurrence matrix concept which measures the joint probability of any information from the images. This new statistical measure in an extension of the grey level co-occurrence matrix used until now to characterize the textures. We propose spatial co-occurrence matrix relative to the orientations and to the local curvatures of the forms, and parametric matrices which measure the evolution of an image under successive transformations. Because the obtained number of descriptors is very high, we suggest designed methods using eigen co-occurrence matrices in order to reduce this number. In this application part, we propose some clustering methods of medieval writings to test our propositions. The number of groups and their contents depend on used parameters and on applied methods. We also developed a Content Based Image Retrieval system to search for similar writings. Within the framework of the project ANR-MCD Graphem, we elaborate methods to analyse and to observe the evolution of the writings of the Middle Ages. ]
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Gayraud, Nathalie. "Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4231/document.

Texto completo da fonte
Resumo:
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG
Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability
Estilos ABNT, Harvard, Vancouver, APA, etc.

Livros sobre o assunto "Méthodes basées sur des exemples"

1

Sellin, Burkart. Antizipation von Berufs- und Qualifikationsentwicklungen: Empfehlungen und Schlussfolgerungen aufgrund einer Untersuchung neuer, innovativer Methoden und Instrumente in der Europäischen Union = Anticipating occupational and qualificational developments : recommendations and conclusions based on a review of recent innovations in methods and instruments applied in the European Union = Prévoir le développement des professions et des qualifications : recommendations et conclusions basées sur une étude des innovations récentes relatives aux méthodes et aux instruments utilisés dans l'Union européenne. Luxembourg: Office for Official Publications of the European Communities, 2001.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

kosseila, aoudjit. Revenus Sur Internet: 24 MÉTHODES RÉELLES POUR GAGNER de l'ARGENT SUR INTERNET,étape Par étape Plus Exemples. Independently Published, 2021.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Manuels d'écriture normale: Nouvelle méthode d'écriture basée sur le mouvement naturel du bras : manuel explicatif suivi de 144 exemples gradués. Montréal: Beauchemin, 1996.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Mangeot, Mathieu, e Agnès Tutin, eds. Lexique(s) et genre(s) textuel(s) : approches sur corpus. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.9782813003454.

Texto completo da fonte
Resumo:
Cet ouvrage collectif rassemble vingt-quatre contributions scientifiques sélectionnées parmi les présentations des onzièmes journées du réseau Lexicologie, Terminologie, Traduction. Ces journées intitulées « Lexique(s) et genre(s) textuel(s) : approches sur corpus » eurent lieu à Grenoble, France du 25 au 28 septembre 2018. Les études lexicales ont connu un profond renouveau depuis quelques années avec l'exploitation massive de corpus de données textuelles pour les études linguistiques. Ces approches ont à la fois renouvelé les méthodes de collecte des données, mais aussi les descriptions linguistiques, désormais davantage basées sur l'usage. L’accent de cette édition 2018 a été mis sur les méthodes de description des unités lexicales exploitant les corpus textuels. Le Réseau LTT: Présent et actif de longue date sur l’ensemble du continent africain, le réseau **Lexicologie, Terminologie, Traduction (LTT)** a été l’un des premiers réseaux de chercheurs de l’Agence universitaire de la Francophonie avant de devenir une association internationale qui poursuit les objectifs et les idéaux de ses fondateurs et continue à œuvrer en partenariat avec les acteurs de la Francophonie. Depuis plus de trente ans, le réseau LTT inscrit ses travaux au cœur de la problématique de la diversité linguistique et du plurilinguisme. Il fédère vingt-quatre centres de recherche implantés sur quatre continents (Amérique du Nord, Asie, Europe et Afrique) et rassemble plusieurs centaines de chercheurs issus d’un grand nombre de pays francophones, voire de territoires où le français est une langue seconde, sans statut officiel ni lien génétique ou historique avec les langues locales. Le site web du réseau LTT est accessible à cette adresse : https://reseau-ltt.net
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Méthodes basées sur des exemples"

1

WANG, Ye, e Vicenç PUIG. "Détection et isolation de défauts basées sur des ensembles". In Diagnostic et commande à tolérance de fautes 1, 115–43. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch3.

Texto completo da fonte
Resumo:
La détection de fautes dans les processus dynamiques utilise des modèles pour vérifier la cohérence des comportements observés, mais des écarts entre le comportement modélisé et réel introduisent de l'incertitude. Les méthodes robustes de diagnostic des défauts, actives ou passives, sont étudiées, avec un accent sur la propagation de l'incertitude. L'approche passive, notamment basée sur des modèles à intervalles, est discutée avec des exemples d'applications.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Carrier, Martin. "L'imaginaire et l'intuition dans les sciences". In L'imaginaire et l'intuition dans les sciences, 97–112. Hermann, 2009. http://dx.doi.org/10.3917/herm.buser.2009.01.0097.

Texto completo da fonte
Resumo:
Résumé . La thèse soutenue dans cet essai est qu’il n’existe pas de voie royale vers la découverte scientifique, mais une multiplicité de voies vers l’innovation scientifique. La spontanéité, l’imagination et l’intuition sont souvent vues comme essentielles à la créativité scientifique. Cet accent mis sur des hypothèses ambitieuses est basé sur la démarche hypothético-déductive de la méthode scientifique, d’après laquelle la formulation d’hypothèses ne procède pas de règles, mais plutôt de « devinettes heureuses ». Il est vrai que l’histoire des sciences nous apporte des exemples de découvertes qui ont obéi à cette stratégie ; ce qui fait qu’en somme, l’idée que la formation des hypothèses implique une créativité et une pensée audacieusement visionnaire n’est pas sans fondements Toutefois cette conception en appelle une autre, à savoir une approche plus systématique de la découverte qui met l’accent sur l’observation systématique ou sur l’expérimentation. Cette stratégie appartient au cadre de l’induction et pose comme principe que les hypothèses sont formulées grâce à un processus plus régulé, centré sur les variations systématiques des conditions impliquées. « Une expérimentation exploratoire » et « un screening schématique» sont deux exemples de classes d’expérimentation effectuées en vue de formuler des hypothèses, fondées sur l’expérience et gouvernées par des règles. Ces procédures de création d’hypothèses, quasi-mécaniques, et soumises à des règles, se rapprochent de l’idéal Baconien de « remplacer l’ingénuité par le recours à des méthodes sophistiquées ». Il est un autre mode de formulation d’hypothèses qui ne concorde pas avec l’accent mis sur la spontanéité, l’imagination et l’intuition. La créativité scientifique est parfois basée sur la capacité d’explorer systématiquement la portée de principes théoriques. Aini que l’ont souligné Lakatos et d’autres, de tels principes arrivent typiquement comme une heuristique toute faite. Déduire des hypothèses spécifiques de principes théoriques en suivant une heuristique fondée sur la théorie exige habileté et ténacité, ce qui est bien loin de la spontanéité, de l’imagination et de l’intuition. Dans la science lourde actuelle, d’importants groupes de scientifiques collaborent pour poursuivre un projet. En sorte qu’un des importants problèmes de la découverte scientifique est de savoir si la créativité de groupes représente l’addition des contributions individuelles ou si elle implique des formes particulièrement étroites d’interactions entre les membres du groupe. Cette dernière idée nous ramène à Fleck, qui affirme que les nouveautés émergent dans des groupes grâce à de permanentes mauvaises compréhensions qui se poursuivant sans être perçues, créent une nouvelle compréhension. L’interaction est essentielle à ce mode de créativité, puisqu’aucune initiative individuelle vers la nouveauté ne suffit à elle seule pour que l’on puisse la mettre au crédit d’une seule personne. La conclusion est qu’une multiplicité de chemins mène à la découverte scientifique, certaines exigeant la spontanéité, l’imagination et l’intuition, et d’autres non. Parfois les découvertes peuvent être faites en appliquant des procédures mécaniques ou en pesant sur la ténacité et la persévérance, d’autres fois un éclair de génie est indispensable.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

MATTRAND, Cécile, Pierre BEAUREPAIRE e Nicolas GAYTON. "Méthodes adaptatives basées sur le krigeage pour l’évaluation de probabilités de défaillance : focus sur les méthodes AK". In Ingénierie mécanique en contexte incertain, 223–54. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch6.

Texto completo da fonte
Resumo:
Cette étude fournit au lecteur un aperçu des méthodes adaptatives récentes de calcul de probabilité de défaillance basées sur l’utilisation du krigeage (dit « processus gaussien ») avec un focus sur les méthodes nommées AK (Adaptative and Kriging-based methods). Ces méthodes sont particulièrement efficaces en présence de modèles de comportement coûteux à évaluer.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

PARDI, Fabio. "Inférence phylogénétique : méthodes basées sur les distances". In Modèles et méthodes pour l’évolution biologique, 151–76. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9069.ch6.

Texto completo da fonte
Resumo:
Une approche intuitive pour reconstruire les arbres évolutifs consiste à regrouper les espèces ou les séquences génétiques selon leur ressemblance. Différentes méthodes formelles ont été développées afin de déterminer un arbre phylogénétique à partir d'une mesure de dissimilarité. Celles-ci ont l'avantage d'être beaucoup plus rapides que les méthodes basées sur des modèles d'évolution et sont donc couramment utilisées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

BOURINET, Jean-Marc. "Estimation de probabilité d’événements rares". In Ingénierie mécanique en contexte incertain, 153–222. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch5.

Texto completo da fonte
Resumo:
Ce chapitre aborde l’estimation de probabilités faibles utiles pour l’analyse de la fiabilité de systèmes à fortes exigences de sûreté. La présentation inclut les méthodes FORM et SORM connues en fiabilité structurale, mais également les méthodes basées sur un échantillonnage naïf (Monte-Carlo) ou préférentiel (tirage d’importance, subset simulation). La sensibilité de la probabilité de défaillance calculée est également introduite.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

HADDAD, Nabila. "Détection et dénombrement des agents pathogènes et des toxines bactériennes". In Évaluation des risques microbiologiques, 39–82. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9084.ch2.

Texto completo da fonte
Resumo:
L'analyse microbiologique des aliments est un des outils déployés à la fois par les entreprises et les pouvoirs publics en sécurité des aliments. Ce chapitre catégorise les méthodes utilisées pour la détection et le dénombrement des agents pathogènes, avec leurs avantages et leurs limites. Les méthodes courantes mais aussi les plus prometteuses telles que celles basées sur le séquençage de nouvelle génération sont présentées au travers d’exemples.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

MAKHLOOGHIAZAD, Faezeh, Cristina POZO-GONZALO, Patrik JOHANSSON e Maria FORSYTH. "Électrolytes pour batteries au sodium". In Les batteries Na-ion, 237–73. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9013.ch5.

Texto completo da fonte
Resumo:
L'électrolyte est une partie cruciale des batteries Na-ion. Après une revue des principaux électrolytes liquides et solides utilisés dans les NIB, les récentes avancées concernant les électrolytes à base de liquide ionique sont décrites. Quelques exemples sont évoqués, ainsi que leurs performances en NIB. Les challenges pour permettre la réalisation des batteries Na-ion basées sur ces nouveaux électrolytes sont discutés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

PELLETIER, Charlotte, e Silvia VALERO. "Techniques de classification basées sur les pixels pour les séries chronologiques d’images satellitaires". In Détection de changements et analyse des séries temporelles d’images 2, 41–98. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch2.

Texto completo da fonte
Resumo:
Au cours des dernières années, les stratégies de classification basées sur l’apprentissage profond ont permis de générer automatiquement des caractéristiques pertinentes pour la description d’informations numériques à partir de données très hétérogènes. Ce chapitre traite de la classification des séries chronologiques d’images de télédétection en présentant un aperçu des algorithmes de classification supervisée proposés dans la littérature. Il se concentre sur les méthodes opérant au niveau « pixel », c’est-à-dire sans prendre en compte le contexte spatial englobant le pixel considéré.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Tomokiyo, Mutsuko, Mathieu Mangeot e Christian Boitet. "Analyse et classification d’exemples illustratifs dans le dictionnaire “Cesselin" en utilisant Google Traduction et un dictionnaire UNL-UWs". In Lexique(s) et genre(s) textuel(s) : approches sur corpus, 325–36. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2928.

Texto completo da fonte
Resumo:
Savoir si un exemple dans un dictionnaire bilingue est un proverbe, une expression idiomatique, une collocation ou un simple exemple d’utilisation serait très utile aux utilisateurs, mais est rarement indiqué. Dans cet article, nous présentons une classification manuelle et une annotation d’exemples dans un dictionnaire bilingue japonais-français, le « Cesselin » (145000 entrées), dérivées de l’analyse manuelle de 500 entrées, et décrivons les étapes d’automatisation du processus d’annotation. Quant aux proverbes, nous utilisons simplement des dictionnaires de proverbes. Pour les autres cas, notre méthode consiste à comparer la traduction (automatique) en anglais d’un exemple original (japonais) et sa traduction (française) dans le dictionnaire. La comparaison est basée d’abord sur le nombre de lexèmes communs aux deux sorties (anglaises), et deuxièmement sur le nombre de lexèmes synonymes, qui peuvent être trouvés en utilisant un grand dictionnaire UNL-UW. Nous montrons notre procédure de classification en détail et son automatisation future.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

AFANASEVA, Larisa. "Analyse de stabilité de modèles de files d’attente basée sur la méthode de synchronisation". In Théorie des files d’attente 2, 7–39. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9004.ch1.

Texto completo da fonte
Resumo:
Ce chapitre étudie les conditions de stabilité pour un système de file d'attente multiserveur avec des serveurs hétérogènes et un flux d'entrée régénératif X. L'idée principale est de construire un processus de service auxiliaire Y ainsi que la détermination des points communs de régénération pour les deux processus X et Y. Les possibilités de l'approche proposée sont illustrées par des exemples. Nous présentons également les applications à l'analyse de capacité des systèmes de transport.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Trabalhos de conferências sobre o assunto "Méthodes basées sur des exemples"

1

Catros, S. "A quoi servent les Bio-Imprimantes 3D ?" In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Texto completo da fonte
Resumo:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-". In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Texto completo da fonte
Resumo:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Cojocaru, Mariana. "Research on the conformity of labels of foods marketed in the Republic of Moldova". In Simpozion stiintific al tinerilor cercetatori, editia 20. Academy of Economic Studies of Moldova, 2023. http://dx.doi.org/10.53486/9789975359023.27.

Texto completo da fonte
Resumo:
L'actualité du sujet de recherche tient à l'intérêt croissant de la population pour les informations portées sur l'étiquette des produits et à leur désir de consommer des aliments le plus naturel possible sans ingrédients génétiquement modifiés. Certains d'entre eux font également attention à la déclaration nutritionnelle, cela se produit s'ils ont certaines maladies et que des restrictions leur sont imposées, notamment des calories ou une faible consommation de glucides, de graisses, etc. L'objectif de la recherche est d'analyser le contenu informationnel des étiquettes nutritionnelles des produits alimentaires locaux et de réaliser une analyse comparative de leur contenu avec les étiquettes nutritionnelles des produits fabriqués en Roumanie. Les méthodes de recherche étaient basées sur l'étude des produits alimentaires des réseaux de commercialisation à la fois en République de Moldavie et en Roumanie. Suite à la recherche, certaines étiquettes nutritionnelles ont été identifiées qui ne se trouvent pas dans notre pays.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Relatórios de organizações sobre o assunto "Méthodes basées sur des exemples"

1

Gruson-Daniel, Célya, e Maya Anderson-González. Étude exploratoire sur la « recherche sur la recherche » : acteurs et approches. Ministère de l'enseignement supérieur et de la recherche, novembro de 2021. http://dx.doi.org/10.52949/24.

Texto completo da fonte
Resumo:
• Introduction Dans le cadre du deuxième Plan National de la Science Ouverte, le Comité pour la science ouverte a souhaité mener une étude pour la préfiguration d’un Lab de la science ouverte (LabSO) afin de mieux comprendre le périmètre de la recherche sur la recherche (research on research) dans un contexte international. • Objectifs de l’étude : L’étude répond ainsi à trois objectifs : 1. repérer des grands courants de recherche sur la recherche (RoR) dans le paysage plus général de la recherche universitaire en Europe et outre-atlantique, en reconnaître les principaux acteurs institutionnels et différencier les approches mobilisées par les uns et les autres ; 2. proposer une méthodologie d’analyse dans une démarche de science ouverte (méthodes mixtes et cartographie numérique) pour faciliter l’appropriation de son contenu ; 3. émettre des recommandations pour faciliter le positionnement du LabSO et s’inspirer d’initiatives existantes. • Méthodologie Une série de treize entretiens et une collecte de données d’une sélection thématique de sites web ont permis de dresser un paysage d’acteurs et d’approches impliqués dans des recherches sur la recherche. Ce dernier s’est nourri d’une démarche de cartographie numérique pour repérer et visualiser les liens existants entre différentes communautés, mouvements, réseaux et initiatives (financeurs, projets, centres de recherche, fournisseurs de données, éditeurs, etc.). • Résultats Le rapport présente différents courants de « recherche sur la recherche » issus des traditions théoriques et méthodologiques de la sociologie, de l’économie, des sciences politiques, de la philosophie, des sciences de l’information et des mesures (biblio/scientométrie). Des courants plus récents sont aussi décrits. Ils s’inscrivent dans un contexte de politiques publiques favorables à la science ouverte et ont émergé dans le champ des sciences sociales computationnelles, des Big Data ou encore des domaines biomédicaux. Si certaines de ces approches s’appuient sur des courants académiques (STS, sciences des mesures) établis depuis de nombreuses décennies, d’autres comme ceux de la « métascience » ou de la « science de la science », se sont structurées plus récemment avec une visée prescriptive et de changement fondé sur des preuves (evidence-based) se basant sur un engagement normatif pour une science plus ouverte, inclusive et diverse. Bien loin d’un paysage statique, l’étude fait ressortir des recherches en mouvement, des débats tout autant que des mises en garde afin que certains courants « ne réinventent pas la roue » en faisant fit d’une longue tradition académique de l’étude des sciences et de la production scientifiques. De nouvelles alliances entre centres de recherche et laboratoires, institutions subventionnaires, décideurs politiques et fournisseurs de données ont été repérées. Elles participent à une dynamique actuelle d’équipement des politiques publiques par des outils d’évaluation et des protocoles de recherche pour guider les actions menées, on parle d’évidence-based policies. Un des exemples les plus récents étant laa seconde feuille de route du RoRI1 poussant notamment à la formation d’un réseau international d’instituts de recherche sur la recherche, fondé sur le partage et la mutualisation de données, de méthodes et d’outils. Outre la présentation de ces différents acteurs et courants, le rapport pointe le rôle joué par les infrastructures et les fournisseurs de données scientifiques (publications, données, métadonnées, citations, etc.) dans la structuration de ce paysage et les équilibres à trouver. • Recommandations 1. Accompagner la construction d’indicateurs et de métriques par le biais d’un regard critique et de discussions collectives pour mesurer leurs impacts sur les comportements des professionnels de la recherche (mésusages, gaming). 2. Porter attention aux étapes de diffusion des résultats scientifiques issus des « recherches sur la recherche » pour les adapter aux différents publics ciblés (chercheurs, responsables des politiques publiques de recherche, journalistes, etc.). 3. Articuler les travaux de « recherche sur la recherche » avec une démarche de science ouverte en questionnant notamment les choix faits concernant les fournisseurs de données, les infrastructures et outils d’évaluation, de découvrabilité et d’analyse de la production scientifique (gouvernance, utilisation des données, etc.). 4. Soutenir les approches thématiques et transversales plutôt que disciplinaire de manière collaborative entre les différents membres du Lab de la science ouverte et aider le dialogue entre les différentes approches et mouvements (STS, research on research, science of science, scientométrie, etc.)
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Brinkerhoff, Derick W., Sarah Frazer e Lisa McGregor. S'adapter pour apprendre et apprendre pour s'adapter : conseils pratiques tirés de projets de développement internationaux. RTI Press, janeiro de 2018. http://dx.doi.org/10.3768/rtipress.2018.pb.0015.1801.fr.

Texto completo da fonte
Resumo:
Les principes de programmation et de gestion adaptables centrés sur l’apprentissage, l’expérimentation et la prise de décisions basée sur des faits gagnent en popularité chez les bailleurs de fonds et les partenaires de mise en œuvre dans le monde du développement international. L'adaptation exige un apprentissage de manière à ce que les ajustements apportés au cours du projet soient éclairés. Cela exige des méthodes de collecte d’informations qui fassent la promotion de la réflexion, de l’apprentissage et de l’adaptation, au-delà de données préalablement précisées. Une concentration sur l’adaptation modifie la réflexion traditionnelle sur le cycle des programmes. D'une part, elle fait disparaître les séparations entre la conception, la mise en œuvre et l’évaluation et, d'autre part, elle recadre la réflexion pour prendre en compte la complexité des problèmes de développement et des voies de changements non linéaires. Le soutien de structures et de processus de gestion est essentiel pour encourager la gestion adaptable. Les organisations de mise en œuvre et les bailleurs defonds expérimentent avec la manière dont les passations de marchés, la sous-traitance, la planification du travail et les rapports peuvent être modifiés afin que la programmation adaptable soit encouragée. Des systèmes de suivi, d’évaluation et d’apprentissage bien conçus peuvent aller au-delà des exigences en matière de redevabilité et de rapports pour produire des données et des enseignements pour une prise de décisions et une gestion adaptable basées sur les faits. Il est important de continuer l’expérimentation et l’apprentissage de manière à intégrer la programmation et la gestion adaptable dans les politiques et pratiques opérationnelles des bailleurs de fonds, despartenaires pays et des entités de mise en œuvre. Nous devons consacrer des efforts continus à la constitution d'une base de faits qui pourra contribuer àla gestion adaptable de manière à ce que les résultats de développement international soient atteints.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, abril de 2012. http://dx.doi.org/10.57071/170rex.

Texto completo da fonte
Resumo:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia