Letteratura scientifica selezionata sul tema "Génération à partir de données"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Génération à partir de données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Génération à partir de données":

1

Fleury, Charles. "La génération X au Québec : une génération sacrifiée ?" Recherche 49, n. 3 (5 febbraio 2009): 475–99. http://dx.doi.org/10.7202/019877ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article examine de manière comparative le parcours professionnel de diverses générations québécoises à partir des données transversales recueillies par Statistique Canada depuis 1976. Il cherche plus spécifiquement à savoir jusqu’à quel point la génération X constitue une génération sacrifiée, comme l’ont laissé entendre nombre d’observateurs au cours des années 1980 et 1990. L’analyse montre que, si toutes les générations ont été touchées d’une manière ou d’une autre par les mutations économiques des dernières décennies, la génération X semble avoir, plus que toute autre cohorte, cumulé de multiples désavantages sur le marché du travail. Non seulement a-t-elle connu d’importantes difficultés d’insertion professionnelle, mais elle a aussi été la pionnière d’un nouveau modèle de travail ainsi que d’un nouveau cycle de vie professionnelle.
2

Pennec, Sophie. "Le passage à la retraite d'une génération féminine : une projection par simulation individuelle". Population Vol. 48, n. 3 (1 marzo 1993): 655–82. http://dx.doi.org/10.3917/popu.p1993.48n3.0682.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Pennec (Sophie). - Le passage à la retraite d'une génération féminine : une projection par simulation individuelle Ce travail consiste à décrire le devenir familial et économique probable d'une génération à l'horizon 2020-2040, en l'occurrence celle des femmes nées entre 1938 et 1942. Il s'agit d'apprécier le degré d'isolement de ces femmes durant la dernière partie de leur cycle de vie (présence ou non de conjoint ou d'enfants). L'étude porte également sur la situation financière des femmes de ces générations : celle-ci est liée non seulement aux droits propres acquis par ces femmes et leur conjoint éventuel, au cours de leur vie professionnelle, mais aussi au phénomène d'isolement simulé précédemment, le veuvage entraînant bien entendu une modification de leurs ressources. Ces simulations, réalisées à partir de données individuelles issues de l'enquête famille de 1982, sont encore exploratoires, mais elles montrent déjà comment ce type de travaux peut éclairer le débat sur les systèmes de protection sociale.
3

Gribaudi, Maurizio. "Itinéraires personnels et stratégies familiales : les ouvriers de Renault dans l'entre-deux-guerres". Population Vol. 44, n. 6 (1 giugno 1989): 1213–32. http://dx.doi.org/10.3917/popu.p1989.44n6.1232.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Gribaudi Maurizio. - Itinéraires personnels et stratégies familiales : Les ouvriers de Renault dans l'entre-deux-guerres. Grâce aux données généalogiques de l'enquête TRA, et à une reconstitution des carrières d'ouvriers des usines Renault durant l'entre-deux-guerres, 151 généalogies complètes ont été établies. Alors qu'à un instant donné rien ne paraît distinguer les ouvriers des diverses provenances, on peut, en utilisant les parcours familiaux, mettre au contraire en évidence des comportements très différents selon la génération. Tandis que les générations les plus anciennes accèdent au monde ouvrier parisien à partir des concentrations ouvrières provinciales, les générations récentes viennent directement de la campagne ou de la petite bourgeoisie parisienne. A travers ces parcours se dessine un changement majeur des rapports entre la ville et la campagne.
4

Sardon, Jean-Paul. "Un indicateur de mortalité : l'exemple de la France". Population Vol. 48, n. 2 (1 febbraio 1993): 347–68. http://dx.doi.org/10.3917/popu.p1993.48n2.0368.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Sardon (Jean-Paul). - Un indicateur conjoncturel de mortalité : l'exemple de la France La mesure de la mortalité d'une année donnée est souvent limitée à une table transversale résumée par un seul indice : l'espérance de vie issue de cette table. Mais il est tout à fait possible de produire, comme pour les autres phénomènes démographiques, un couple d'indices, le premier correspondant à ce que, dans l'analyse longitudinale, on appelle l'intensité du phénomène, le second à l'âge moyen à la survenance de ce phénomène. Pour cela, il faut établir des taux de mortalité calculés par rapport à l'effectif initial, ou tout aussi simplement convertir les quotients de mortalité, observés à un âge et dans une génération donnés, en décès de la table de mortalité de chacune des générations considérées. Le premier indice, somme des décès réduits ou indicateur conjoncturel de mortalité, donne le nombre de décès que l'on enregistrerait (en l'absence de migrations, si les quotients sont transformés en décès de la table) si le nombre de naissances annuelles était constant. Il révèle en fait les modifications du calendrier de la mortalité au fil des générations. Le second indice donne l'âge moyen de cette distribution des décès. La durée de vie moyenne ainsi déterminée est toujours inférieure à l'espérance de vie de la table du moment. L'application aux données françaises montre que ces nouveaux indices peuvent compléter utilement les analyses faites à partir des tables de mortalité classiques.
5

Contant, Chantal. "Génération automatique de rapports boursiers français et anglais". Revue québécoise de linguistique 17, n. 1 (12 maggio 2009): 197–221. http://dx.doi.org/10.7202/602620ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Depuis peu de temps, il est possible, dans un sous-langage technique bien délimité, de créer des systèmes automatiques capables de générer, à partir d’une représentation sémantique, des textes linguistiquement bien formés. Un tel système existe pour le sous-langage boursier. En effet, à partir des données de la Bourse de New York, ce logiciel produit de façon automatique des résumés boursiers en anglais et en français. Le présent article présente le système anglais et français de génération automatique de texte et décrit brièvement les particularités du sous-langage boursier.
6

Corpetti, Thomas, Vincent Dubreuil, Etienne Mémin, Nicolas Papadakis, Olivier Planchon e Claire Thomas. "Outils méthodologiques pour l'Analyse d'images MSG: Estimation du mouvement, suivi des masses nuageuses et détection de fronts". Revue Française de Photogrammétrie et de Télédétection, n. 205 (21 febbraio 2014): 3–17. http://dx.doi.org/10.52638/rfpt.2014.11.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article présente les travaux que nous avons menés ces dernières années autour de l'analyse d'images Météosat Seconde Génération (MSG). Comparés à la première génération, les données MSG possèdent une résolution spatiale et temporelle plus élevée, autorisant l'accès à un certain nombre d'informations liées aux phénomènes climatiques observés. Cependant, l'étape consistant à remonter à cette information physique à partir des données images s'avère délicate car nous sommes confrontés à des structures soumises à de très fortes déformations, parfois observées en transparence et avec une durée de vie variable. Par conséquent, les outils classiques issus de l'analyse d'images se révèlent souvent limités et il est nécessaire de les adapter à cette spécificité. Nous nous focalisons ici sur trois applications particulières : l'estimation du mouvement, permettant de remonter aux vents atmosphériques, le suivi de masses nuageuses, autorisant par exemple l'analyse de phénomènes convectifs et la détection de fronts, appliquée ici aux brises de mer.
7

Fleury, Charles. "Allongement de la jeunesse et précarisation de l’emploi : un lien de causalité ?" Canadian Journal of Sociology 34, n. 2 (12 dicembre 2008): 283–312. http://dx.doi.org/10.29173/cjs1033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article examine les modalités d’entrée dans l’âge adulte de deux cohortes de jeunes québécois, nés entre 1942 et 1951 (génération lyrique) et entre 1962-71 (génération X). Examinant l’effet net de la précarisation du marché du travail à partir des données rétrospectives de l’Enquête sociale générale de 2001, il tente plus spécifiquement de savoir jusqu’à quel point les mutations économiques des années 1980-90 permettent d’expliquer le phénomène d’allongement de la jeunesse et de la désynchronisation des parcours de vie. L’analyse montre qu’en définitive, la précarisation de l’emploi semble assez peu liée à ces mutations des parcours de vie, celles-ci semblant davantage s’expliquer par des transformations de nature non-économique tels que l’allongement des études et le changement de valeurs.
8

Courtioux, Pierre, e Vincent Lignon. "Homogamie éducative et générations : quels effets sur les inégalités de niveau de vie en France ?" Population Vol. 77, n. 2 (28 settembre 2022): 325–46. http://dx.doi.org/10.3917/popu.2202.0325.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il est admis que l’homogamie éducative – c’est-à-dire la tendance à observer des mises en couple entre personnes ayant le même niveau de diplôme – renforce les inégalités socioéconomiques au sein de la population. Pour autant, les travaux disponibles dans la littérature écartent généralement de leurs estimations une partie des individus les plus âgés, afin de ne pas introduire de biais de génération. Les indicateurs ainsi produits ne peuvent être comparés directement avec les indicateurs usuels d’inégalités de niveau de vie calculés en population générale. Cet article propose une méthode originale pour contrôler ce biais de génération afin de quantifier la part des inégalités imputables à l’homogamie éducative en population générale. À l’aide d’une modélisation logistique des probabilités d’appariement des conjoints selon le diplôme, l’évolution de la structure des diplômes au fil des générations est identifiée de manière fine, ainsi que son rôle sur les inégalités liées à l’homogamie éducative. Les résultats obtenus sur les données françaises pour la période 2003-2013 montrent que l’impact de l’homogamie éducative sur les inégalités de niveau de vie est statistiquement significatif mais très faible. Elle affecte plus particulièrement le haut de la distribution des niveaux de vie et nécessite pour être mise en évidence de bien contrôler les effets de génération.
9

Avdeev, Alexandre, e Alain Monnier. "A la découverte de la fécondité russe contemporaine". Population Vol. 49, n. 4 (1 aprile 1994): 859–901. http://dx.doi.org/10.3917/popu.p1994.49n4-5.0901.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Avdeev (Alexandre), Monnier (Alain). - A la découverte de la fécondité russe contemporaine Fondé sur des données inédites, cet article présente l'évolution de la natalité tout au long du siècle et analyse plus en détail la fécondité des générations nées à partir de 1910. Au cours de cette période, la Russie, dont les générations nées au début du siècle étaient parmi les plus fécondes d'Europe (près de trois enfants par femme), va devenir un des pays les moins féconds (1,8 enfants par femme dans la génération 1945). Une reprise récente a porté la descendance finale à près de deux enfants dans la génération 1955. Comme dans d'autres pays, la raréfaction des naissances de rang trois et plus a entraîné la baisse de la fécondité générale. En contrepartie, la robustesse de la fécondité de rang un et deux doit être soulignée. C'est la force de la fécondité russe. La Russie est ainsi passée d'une situation où coexistaient des familles de dimensions très diverses à une situation où le modèle de la famille avec un ou deux enfants est massivement adopté. L'article présente également les mesures de politique familiale prises en 1981 et tente d'apprécier leurs effets. Enfin, il s'interroge sur la chute de la fécondité observée depuis 1987. Si, dans un premier temps, cette chute est très clairement le contrecoup du mouvement d'anticipation suscité par les mesures de 1981, on ne peut maintenant exclure l'hypothèse selon laquelle la baisse récente de la fécondité manifesterait un certain « attentisme » des couples, dans le contexte complexe de la Russie.
10

Kamanzi, Pierre Canisius, Nicolas Bastien, Pierre Doray e Marie-odile Magnan. "Immigration et cheminements scolaires aux études supérieures au Canada : qui y va et quand ? Une analyse longitudinale à partir du modèle de Cox". Canadian Journal of Higher Education 46, n. 2 (31 agosto 2016): 225–48. http://dx.doi.org/10.47678/cjhe.v46i2.184865.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent article vise à analyser les cheminements scolaires de jeunes Canadiens issus de l’immigration qui font des études supérieures. Pour ce faire, nous utilisons le modèle de risque proportionnel de Cox. Les résultats obtenus à partir des données longitudinales de l’Enquête auprès des jeunes en transition (EJET) montrent que le risque d’accès aux études supérieures est plus élevé chez les étudiants issus de l’immigration que chez leurs pairs dont les parents sont Canadiens de naissance. La différence varie de 3 à 35 points de pourcentage parmi ceux de première génération et de 4 à 13 points de pourcentage parmi ceux de deuxième génération. Par ailleurs, il existe des différences marquées entre les différents groupes d’étudiants issus de l’immigration, en ce qui concerne l’âge d’entrée aux études supérieures, la persévérance et le type de diplôme obtenu à l’âge de 24 ans. Bien que cette différence diminue relativement lorsqu’on tient compte des ressources des parents et des variables associées à l’expérience scolaire de l’élève au secondaire, elle demeure statistiquement significative.

Tesi sul tema "Génération à partir de données":

1

Baez, miranda Belen. "Génération de récits à partir de données ambiantes". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
2

Uribe, Lobello Ricardo. "Génération de maillages adaptatifs à partir de données volumiques de grande taille". Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
3

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles". Nantes, 2001. http://www.theses.fr/2001NANT2099.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
4

Sridhar, Srivatsan. "Analyse statistique de la distribution des amas de galaxies à partir des grands relevés de la nouvelle génération". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4152/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est d'étudier la possibilité de construire la fonction de corrélation à 2 points des amas de galaxies détectés dans les grands relevés optiques de galaxies. En particulier j’étudie l’impact de décalages vers le rouge dégradés car dérivés de données photométriques seules comme cela sera le cas pour les grands relevés à venir. J’ai utilisé des sous-échantillons d’amas sélectionnés dans les catalogues simulés. Les décalages vers le rouge des amas sont modélisés à partir des décalages exacts auxquels sont rajoutés un brui gaussien d’écart type σ (z=0) = 0.005 à 0.050. La fonction de corrélation dans l’espace direct est calculées par une méthode de déprojection. L’étude a été menée sur 4 intervalles de masse et 6 de redshift couvrant le domaine 0N200) est similaire à Σ(>masse), ainsi que la fonction de biais qui peut être reproduite à 1σ près
I aim to study to which accuracy it is actually possible to recover the real-space to-point correlation function from cluster catalogues based on photometric redshifts. I make use of cluster sub-samples selected from a light-cone simulated catalogue. Photometric redshifts are assigned to each cluster by randomly extracting from a Gaussian distribution having a dispersion varied in the range σ (z=0) = 0.005 à 0.050. The correlation function in real-space is computed through deprojection method. Four masse ranges and six redshifts slices covering the redshift range 0
5

Pentek, Quentin. "Contribution à la génération de cartes 3D-couleur de milieux naturels à partir de données d'un système multicapteur pour drone". Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse sont des travaux préliminaires à la construction de cartes 3D-couleur. Ils visent à résoudre la problématique de fusion des données LiDAR et de l'imagerie optique acquises depuis un drone. Deux prérequis sont identifiés. Ceux-ci consistent, d'une part, à caractériser les erreurs de mesure des données hétérogènes issues des capteurs, et d'autre part, à aligner géométriquement ces-dernières.Dans un premier temps, nous proposons le développement d'un modèle de prédiction de l'incertitude de mesure LiDAR prenant en compte l'influence de l'empreinte laser. Une nouvelle méthode sans référence est introduite dans le but de valider ce modèle de prédiction. Une deuxième méthode utilisant un plan de référence valide l'adéquation de l'utilisation de la méthode sans référence.Dans un second temps, nous proposons une nouvelle méthode d'étalonnage du système multicapteur composé d'un LiDAR, d'une caméra, d'un système de navigation inertielle et d'un système de positionnement par satellites. La performance de cette méthode est évaluée sur des données synthétiques et réelles. Elle présente l'avantage d'être entièrement automatique, ne nécessite pas de mire d'étalonnage ou de point de contrôle au sol et peut opérer indifféremment en milieu naturel ou urbain. La flexibilité de cette méthode lui permet d'être mise en œuvre rapidement avant chaque acquisition.Finalement, nous proposons une méthode permettant de générer des cartes 3D-couleur sous forme de nuages de points colorisés. Nos expériences montrent que l'alignement géométrique des données permet d'améliorer fortement la qualité des cartes 3D-couleurs. Si on regarde plus attentivement ces cartes 3D-couleur, il persiste des erreurs de colorisation dues principalement à la non prise en compte des erreurs de mesure. L'exploitation du modèle de prédiction de l'incertitude de mesure LiDAR proposé pour la construction des cartes 3D-couleur serait donc la suite logique de ces travaux
These thesis works are preliminary works to the construction of 3D-colour maps. They aim to solve the problem of combining LiDAR data and optical imagery acquired from a drone. Two prerequisites are identified. These consist, on the one hand, in characterizing the measurement errors of heterogeneous data from the sensors and, on the other hand, in geometrically aligning the latter.First, we propose the development of a LiDAR measurement uncertainty prediction model that takes into account the influence of the laser footprint. A new method without reference is introduced to validate this prediction model. A second method using a reference plane validates the adequacy of the use of the method without reference.In a second step, we propose a new method for calibrating the multi-sensor system consisting of a LiDAR, a camera, an inertial navigation system and a global satellite navigation system. The performance of this method is evaluated on synthetic and real data. It has the advantage of being fully automatic, does not require a calibration object or ground control point and can operate in either natural or urban environments. The flexibility of this method allows it to be implemented quickly before each acquisition.Finally, we propose a method to generate 3D-color maps in the form of colored point clouds. Our experiments show that geometric data alignment significantly improves the quality of 3D-color maps. If we look more closely at these 3D-colour maps, there are still colorization errors due mainly to the failure to take into account measurement errors. The use of the proposed LiDAR measurement uncertainty prediction model in the construction of 3D-color maps would therefore be the logical continuation of this work
6

Broseus, Lucile. "Méthodes d'étude de la rétention d'intron à partir de données de séquençage de seconde et de troisième générations". Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTT027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On reconnaît maintenant aux transcrits des implications multiples dans le fonctionnement des cellules eucaryotes. En plus de leur rôle originel de messagers assurant la liaison entre l'ADN et la synthèse protéique, l’usage de transcrits alternatifs apparaît comme un mode de contrôle post-transcriptionnel de l'expression génique. Exemplairement, plusieurs mécanismes distincts de régulation impliquant la production de transcrits matures retenant des introns (IRTs) ont été récemment décrits. Ces observations sont largement tributaires du développement de la seconde génération de séquençage haut-débit de l'ARN (RNA-seq). Cependant, ces données ne permettent pas d’identifier la structure complète des IRTs , dont le répertoire est encore très parcellaire. L’émergence d’une troisième génération de séquençage, à même de lire les transcrits dans leur intégralité, pourrait permettre d’y remédier. Bien que chaque technologie présente des inconvénients propres qui n'autorisent qu'une vision partielle et partiale du transcriptome, elles se complètent sur plusieurs points. Leur association, au moyen de méthodes dites hybrides, offre donc des perspectives intéressantes pour aborder l'étude des isoformes. L'objet de cette thèse est d'examiner ce que ces deux types de données peuvent, seuls ou combinés, apporter plus spécifiquement à l'étude des événements de rétention d'intron (IR). Un nombre croissant de travaux exploitent la profondeur et la largeur de couverture des données de seconde génération pour déceler et quantifier l'IR. Toutefois, il existe encore peu de méthodes informatiques dédiées à leur analyse et l’on fait souvent appel à des méthodes conçues pour d'autres usages comme l'étude de l'expression des gènes ou des exons. En tous les cas, leur capacité à apprécier correctement l'IR ne sont pas garanties. C'est la raison pour laquelle nous mettons en place un plan d'évaluation des méthodes de mesure des niveaux d’IR. Cette analyse révèle un certain nombre de biais, susceptibles de nuire à l'interprétation des résultats et nous amène à proposer une nouvelle méthode d’estimation. Au-delà de la vision centrée sur les variants, les données de longs reads Oxford Nanopore ont le potentiel de révéler la structure complète des IRTs, et ainsi, d’inférer un certain nombre de leurs caractéristiques. Cependant, leur taux d’erreur élevé et la troncation des séquences sont des obstacles incontournables. A large échelle, le traitement informatique de ces données nécessite l’introduction d’heuristiques, qui privilégient certaines formes de transcrits et, en général, occultent les formes rares ou inattendues. Il en résulte une perte importante d’information et de qualité d’interprétation. Pour la réduire, nous développons une méthode hybride de correction des séquences et proposons des stratégies ciblées pour reconstituer et caractériser les IRTs
In eucaryotic cells, the roles of RNA transcripts are known to be varied. Besides their role as messengers, transferring information from DNA to protein synthesis, the usage of alternative transcripts appears as a means to control gene expression in a post-transcriptional manner. Exemplary, the production of mature transcripts retaining introns (IRTs) was recently shown to take part in several distinct regulatory mechanisms. These observations benefited greatly from the development of the second generation of RNA-sequencing (RNA-seq). However, these data do not allow to identify the entire structure of IRTs, whose catalog is still fragmented. The emerging third generation of RNA-seq, apt to read RNA sequences in their full extent, could help achieve this goal. Despite their respective drawbacks and biases, both technologies are, to some extent, complementary. It is therefore appealing to try and combine them through so-called hybrid methods, so as to perform analyses at the isoform level. In the present thesis, we aim to investigate the potential of these two types of data, alone or in combination, in order to study intron retention (IR) events, more specifically. A growing number of studies harness the high coverage depths provided by second generation data to detect and quantify IR. However, there exist few dedicated computational methods, and many studies rely on methods designed for other purposes, such as gene or exon expression analysis. In any case, their ability to accurately measure IR has not been certified. For this reason, we set up a benchmark of the various IR quantification methods. Our study reveals several biases, prone to prejudice the interpretation of results and prompted us to suggest a novel method to estimate IR levels. Beyond event-centered analyses, Oxford Nanopore long read data have the capability to reveal the full-length structure of IRTs, and thereby to allow to infer some of their features. However, their high error rate and truncation events constitute inescapable impediments. Transcriptome-wide, the computational treatment of these data necessitates heuristics which will favor specific transcript forms, and, generally, overlook rare or unexpected ones. This results in a considerable loss of information and precludes meaningful interpretations. To address these issues, we develop a hybrid correction method and suggest specific strategies to recover and characterize IRTs
7

Kersale, Marion. "Dynamique de processus océaniques de méso- et de subméso-échelle à partir de simulations numériques et de données in situ". Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4061.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'hydrodynamisme autour des îles océaniques et dans les régions côtières est caractérisé par la présence de nombreuses structures de méso- et de subméso-échelle. L'objectif de cette thèse est d'étudier, à partir de données in situ et de modélisation numérique, d'une part la prédominance de certains forçages dans la génération de ces structures et d'autre part leurs dynamiques et leurs impacts sur la dispersion des eaux côtières. Dans un premier temps, une étude basée sur des données issues d'un modèle hydrodynamique autour de l'archipel hawaïen a permis d'évaluer les influences respectives et l'importance des forçages du vent, de la topographie et de la circulation générale sur la génération de tourbillons de méso-échelle. Des tests de sensibilité ont mis en évidence l'intérêt d'une haute-résolution spatiale du forçage atmosphérique. Dans un deuxième temps, la dynamique côtière du Golfe du Lion (GdL) a été investie. Une première étude s'est focalisée sur les caractéristiques physiques et la dynamique d'un tourbillon dans la partie ouest du golfe à l'aide de données de la campagne Latex09 et de résultats d'un modèle hydrodynamique. Leur analyse combinée a permis d'identifier un nouveau processus de génération de tourbillons de méso-échelle dans cette zone et de mettre en évidence la formation d'une structure transitoire de subméso-échelle. Basée sur les données de la campagne Latex10, une deuxième étude s'est alors orientée sur la dispersion des eaux côtières de la partie occidentale du GdL. Un suivi lagrangien des masses d'eau a permis de déterminer les coefficients horizontaux et verticaux de diffusion dans cette zone clef pour les échanges côte-large ou interrégionaux
The hydrodynamics around oceanic islands and in coastal areas is characterized by the presence of numerous meso- and submesocale features. The aim of this PhD thesis is to study, from in situ data and numerical modeling, firstly the predominance of some forcings on the generation of these features and secondly their dynamics and their impacts on the dispersion of coastal waters. Firstly, a study based on a series of numerical simulations in the Hawaiian region, allows us to examine the relative importance of wind, topographic and inflow current forcing on the generation of mesoscale eddies. Sensitivity tests have shown the importance of high wind-forcing spatial resolution. Secondly, the coastal dynamics of the Gulf of Lions (GoL), also subject to these forcings, has been investigated. A first part focuses on the physical characteristics and the dynamics of an eddy in the western part of the gulf, using data from the Latex09 campaign and results from a realistic hydrodynamic model of the GoL. Their combined analysis has allowed to identify a new generation mechanism for the mesoscale eddies in this area and to understand the formation of a transient submesoscale structure. This work has shown the importance of these structures in modulating exchanges in this region. Based on the data of the Latex10 campaign, a second part has then focused on the dispersion of coastal waters in the western area of the GoL. The tracking of the water masses in a Lagrangian reference frame (floats, tracer) has allowed to determine the horizontal and vertical diffusion coefficients in this key area for coastal-offshore and interregional exchanges
8

Thurin, Nicolas H. "Evaluation empirique d’approches basées sur les cas pour la génération d’alertes de pharmacovigilance à partir du Système National des Données de Santé (SNDS)". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0408.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La France possède une large base de données nationale regroupant les données de liquidation de l’Assurance Maladie, de mortalité et des données hospitalières : le Système National des Données de Santé (SNDS). Celui-ci couvre actuellement la quasi-totalité de la population française de la naissance (ou immigration), au décès (ou émigration), en incluant tous les remboursements de frais médicaux ou paramédicaux. En recueillant de manière systématique et prospective les dispensations médicamenteuses, les événements hospitaliers et les décès, le SNDS est doté d’un fort potentiel pour l’évaluation du médicament en vie réelle. Suite au retrait mondial du rofecoxib en 2004, de nombreuses initiatives visant au développement et à l’évaluation de méthodologies adaptées aux bases de données populationnelles pour la surveillance des risques liés à l’usage du médicament ont vu le jour, en particulier le réseau EU-ADR en Europe (Exploring and Understanding Adverse Drug Reactions by integrative mining of clinical records and biomedical knowledge) et OMOP (Observational Outcomes Partnership) aux États-Unis. Ces travaux ont démontré l’utilité des approches pharmaco-épidémiologiques pour la détection de signaux de pharmacovigilance. Cependant, le SNDS n’a jamais été testé dans cette optique. L’objectif de cette thèse était d’évaluer de manière empirique, 3 approches pharmaco épidémiologiques basées sur les cas pour la génération d’alerte(s) de pharmacovigilance dans le SNDS : étude cas-population, étude cas-témoins et séries de cas autocontrôlés. Ces approches ont été appliquées à deux événements médicaux d’intérêt récurrents en pharmacovigilance : l’hémorragie digestive haute (UGIB) et l’hépatite aigue (ALI). Le projet a été composé de 4 principales étapes : (1) le formatage des données selon les spécifications du modèle commun de données d’OMOP et la sélection des médicaments témoins positifs et négatifs pour chaque événement d'intérêt ; (2) l’analyse des médicaments témoins sélectionnés en utilisant les 3 approches basées sur les cas, en déclinant chaque approche selon plusieurs variantes (par exemple, en testant différentes fenêtres de risque, stratégies d'ajustement, etc.) ; (3) la comparaison des performances des variantes selon leur aire sous la courbe ROC (AUC), leur erreur quadratique moyenne (MSE) et leur probabilité de couverture ; (4) la sélection de la meilleure variante pour chaque événement d’intérêt et son étalonnage. Sur les 3 approches étudiées, c’est la série de cas autocontrôlés qui a montré les meilleures performances dans UGIB et ALI avec des AUC respectifs de 0,80 et 0,94 et des MSE de 0,07 et 0,12. Pour UGIB, les performances optimales ont été observées lorsque l'ajustement tenait compte des traitements concomitants et lorsque les 30 premiers jours d'exposition au médicament d’intérêt étaient utilisés comme fenêtre de risque. Pour ALI, les performances optimales ont été également obtenues lors de l'ajustement en fonction des traitements concomitants, mais en utilisant une fenêtre de risque correspondant à l’ensemble de la période couverte par les dispensations de médicament d’intérêt. L’utilisation de médicaments témoins négatifs a montré que l’erreur systématique résultant de l’application de l’approche et des paramètres optimaux dans le SNDS semblait faible, mais que les biais protopathiques et de confusion restaient présents. Au total, ces travaux ont montré que les séries de cas autocontrôlées sont à considérer comme une approche adaptée à la détection d’alertes de pharmacovigilance associées à ALI et à UGIB dans le SNDS. Un point de vue clinique demeure toutefois nécessaire pour écarter tout risque de faux positif résultant de potentiels biais résiduels. L’application d'une telle approche à d'autres événements d'intérêt et son utilisation en routine constitueraient des progrès substantiels en matière de pharmacovigilance en France
France has a large nationwide longitudinal database with claims and hospital data, the Système National des Données de Santé (French National healthcare database – SNDS), which currently covers almost the complete French population, from birth or immigration to death or emigration, and includes all reimbursed medical and paramedical encounters. Since SNDS systematically and prospectively captures drug dispensings, death, and events leading to hospital stays, it has a strong potential for drug assessment in real life settings. Following the worldwide withdrawal of rofecoxib in 2004, several initiatives aiming to develop and evaluate methodologies for drug safety monitoring on healthcare databases emerged. The EU-ADR alliance (Exploring and Understanding Adverse Drug Reactions by integrative mining of clinical records and biomedical knowledge) and OMOP (Observational Outcomes Partnership) were respectively launched in Europe and in the Unites-States. These experiments demonstrated the usefulness of pharmacoepidemiological approaches in drug safety signal detection. However the SNDS had never been tested in this scope. The objective of this thesis was to empirically assess 3 case-based designs – case-population, case-control, and self-controlled case series – for drug-safety alert generation in the SNDS, taking as examples two health outcome of interest: upper gastrointestinal bleeding (UGIB) and acute liver injury (ALI).The overall project consisted of 4 main stages: (1) preparation of the data to fit the OMOP common data model and the selection of positive and negative drug controls for each outcome of interest; (2) analysis of the selected drug controls using the 3 case-based designs, testing several design variants (e.g. testing different risk windows, adjustment strategies, etc.); (3) comparison of design variant performances through the calculation of the area under the receiver operating characteristics curve (AUC), the mean square error (MSE) and the coverage probability; (4) the selection of the best design variant and its calibration for each health outcome of interest.Self-controlled case series showed the best performances in both outcomes, ALI and UGIB, with AUCs reaching respectively 0.80 and 0.94 and MSEs 0.07 and 0.12. For UGIB optimal performances were observed when adjusting for multiple drugs and using a risk window corresponding to the 30 first days of exposure. For ALI, optimal performances were also observed when adjusting for multiple drugs but using a risk window corresponding to the overall period covered by drug dispensings. Negative drug control implementation highlighted that a low systematic error seemed to be generated by the optimum variants in the SNDS but that protopathic bias and confounding by indication remained unaddressed issues.These results showed that self-controlled case series were well suited to detect drug safety alerts associated with UGIB and ALI in the SNDS in an accurate manner. A clinical perspective remains necessary to rule out potential false positive signals from residual confounding. The application in routine of such approaches extended to other outcomes of interest could result in substantial progress in pharmacovigilance in France
9

Nguyen, Trung Ky. "Génération d'histoires à partir de données de téléphone intelligentes : une approche de script Dealing with Imbalanced data sets for Human Activity Recognition using Mobile Phone sensors". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le script est une structure qui décrit une séquence stéréotypée d’événements ou d’actions survenant dans notre vie quotidienne. Les histoires utilisent des scripts , avec une ou plusieurs déviations intéressantes, qui nous permettent de mieux saisir les situations quotidiennes rapportées et les faits saillants du récit. Ainsi, la notion de script est très utile dans de nombreuses applications d’intelligence ambiante telles que la surveillance de la santé et les services d’urgence. Ces dernières années, l’avancement des technologies de détection et des systèmes intégrés permettent aux systèmes de santé de collecter en permanence les activités des êtres humains, en intégrant des capteurs dans des dispositifs portables (par exemple smart-phone ou smart-watch). La reconnaissance de l’activité humaine (HAR) a ainsi connue un essor important grâce notamment à des approches d’apprentissage automatique telles que le réseau neuronal ou le réseau bayésien. Ces avancées ouvre des perspectives qui vont au delà de la simple reconnaissance d’activités. Ce manuscrit défend la thèse selon laquelle ces données de capteurs portables peuvent être utilisées pour générer des récits articulés autour de scripts en utilisant l’apprentissage automatique. Il ne s’agit pas d’une tâche triviale en raison du grand écart sémantique entre les informations brutes de capteurs et les abstractions de haut niveau présente dans les récits. A notre connaissance, il n’existe toujours pas d’approche pour générer une histoire à partir de données de capteurs en utilisant l’apprentissage automatique, même si de nombreuses approches d’apprentissage automatique (réseaux de neurones convolutifs, réseaux de neurones profonds) ont été proposées pour la reconnaissance de l’activité humaine au cours des dernières années. Afin d’atteindre notre objectif, nous proposons premièrement dans cette thèse un nouveau cadre qui traite le problème des données non uniformément distribuées (problème du biais induit par des classes majoritaires par rapport aux classes minoritaires) basé sur un apprentissage actif associé à une technique de sur-échantillonnage afin d’améliorer la macro-exactitude de classification des modèles d’apprentissage classiques comme la perception multi-couche. Deuxièmement, nous présentons un nouveau système permettant de générer automatiquement des scripts à partir de données d’activité humaine à l’aide de l’apprentissage profond. Enfin, nous proposons une approche pour l’apprentissage de scripts à partir de textes en langage naturel capable d’exploiter l’information syntaxique et sémantique sur le contexte textuel des événements. Cette approche permet l’apprentissage de l’ordonnancement d’événements à partir d’histoires décrivant des situations typiques de vie quotidienne. Les performances des méthodes proposées sont systématiquement discutées sur une base expérimentale
Script is a structure describes an appropriate sequence of events or actions in our daily life. A story, is invoked a script with one or more interesting deviations, which allows us to deeper understand about what were happened in routine behaviour of our daily life. Therefore, it is essential in many ambient intelligence applications such as healthmonitoring and emergency services. Fortunately, in recent years, with the advancement of sensing technologies and embedded systems, which make health-care system possible to collect activities of human beings continuously, by integrating sensors into wearable devices (e.g., smart-phone, smart-watch, etc.). Hence, human activity recognition (HAR) has become a hot topic interest of research over the past decades. In order to do HAR, most researches used machine learning approaches such as Neural network, Bayesian network, etc. Therefore, the ultimate goal of our thesis is to generate such kind of stories or scripts from activity data of wearable sensors using machine learning approach. However, to best of our knowledge, it is not a trivial task due to very limitation of information of wearable sensors activity data. Hence, there is still no approach to generate script/story using machine learning, even though many machine learning approaches were proposed for HAR in recent years (e.g., convolutional neural network, deep neural network, etc.) to enhance the activity recognition accuracy. In order to achieve our goal, first of all in this thesis we proposed a novel framework, which solved for the problem of imbalanced data, based on active learning combined with oversampling technique so as to enhance the recognition accuracy of conventional machine learning models i.e., Multilayer Perceptron. Secondly, we introduce a novel scheme to automatically generate scripts from wearable sensor human activity data using deep learning models, and evaluate the generated method performance. Finally, we proposed a neural event embedding approach that is able to benefit from semantic and syntactic information about the textual context of events. The approach is able to learn the stereotypical order of events from sets of narrative describing typical situations of everyday life
10

Potes, Ruiz Paula Andrea. "Génération de connaissances à l’aide du retour d’expérience : application à la maintenance industrielle". Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0089/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de recherche présentés dans ce mémoire s’inscrivent dans le cadre de la valorisation des connaissances issues des expériences passées afin d’améliorer les performances des processus industriels. La connaissance est considérée aujourd'hui comme une ressource stratégique importante pouvant apporter un avantage concurrentiel décisif aux organisations. La gestion des connaissances (et en particulier le retour d’expérience) permet de préserver et de valoriser des informations liées aux activités d’une entreprise afin d’aider la prise de décision et de créer de nouvelles connaissances à partir du patrimoine immatériel de l’organisation. Dans ce contexte, les progrès des technologies de l’information et de la communication jouent un rôle essentiel dans la collecte et la gestion des connaissances. L’implémentation généralisée des systèmes d’information industriels, tels que les ERP (Enterprise Resource Planning), rend en effet disponible un grand volume d’informations issues des événements ou des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances (les expériences passées) sont très contextualisés et nécessitent des méthodologies bien précises pour être généralisés. Etant donné le potentiel des informations recueillies dans les entreprises en tant que source de nouvelles connaissances, nous proposons dans ce travail une démarche originale permettant de générer de nouvelles connaissances tirées de l’analyse des expériences passées, en nous appuyant sur la complémentarité de deux courants scientifiques : la démarche de Retour d’Expérience (REx) et les techniques d’Extraction de Connaissances à partir de Données (ECD). Le couplage REx-ECD proposé porte principalement sur : i) la modélisation des expériences recueillies à l’aide d’un formalisme de représentation de connaissances afin de faciliter leur future exploitation, et ii) l’application de techniques relatives à la fouille de données (ou data mining) afin d’extraire des expériences de nouvelles connaissances sous la forme de règles. Ces règles doivent nécessairement être évaluées et validées par les experts du domaine avant leur réutilisation et/ou leur intégration dans le système industriel. Tout au long de cette démarche, nous avons donné une place privilégiée aux Graphes Conceptuels (GCs), formalisme de représentation des connaissances choisi pour faciliter le stockage, le traitement et la compréhension des connaissances extraites par l’utilisateur, en vue d’une exploitation future. Ce mémoire s’articule en quatre chapitres. Le premier constitue un état de l’art abordant les généralités des deux courants scientifiques qui contribuent à notre proposition : le REx et les techniques d’ECD. Le second chapitre présente la démarche REx-ECD proposée, ainsi que les outils mis en œuvre pour la génération de nouvelles connaissances afin de valoriser les informations disponibles décrivant les expériences passées. Le troisième chapitre présente une méthodologie structurée pour interpréter et évaluer l’intérêt des connaissances extraites lors de la phase de post-traitement du processus d’ECD. Finalement, le dernier chapitre expose des cas réels d’application de la démarche proposée à des interventions de maintenance industrielle
The research work presented in this thesis relates to knowledge extraction from past experiences in order to improve the performance of industrial process. Knowledge is nowadays considered as an important strategic resource providing a decisive competitive advantage to organizations. Knowledge management (especially the experience feedback) is used to preserve and enhance the information related to a company’s activities in order to support decision-making and create new knowledge from the intangible heritage of the organization. In that context, advances in information and communication technologies play an essential role for gathering and processing knowledge. The generalised implementation of industrial information systems such as ERPs (Enterprise Resource Planning) make available a large amount of data related to past events or historical facts, which reuse is becoming a major issue. However, these fragments of knowledge (past experiences) are highly contextualized and require specific methodologies for being generalized. Taking into account the great potential of the information collected in companies as a source of new knowledge, we suggest in this work an original approach to generate new knowledge based on the analysis of past experiences, taking into account the complementarity of two scientific threads: Experience Feedback (EF) and Knowledge Discovery techniques from Databases (KDD). The suggested EF-KDD combination focuses mainly on: i) modelling the experiences collected using a knowledge representation formalism in order to facilitate their future exploitation, and ii) applying techniques related to data mining in order to extract new knowledge in the form of rules. These rules must necessarily be evaluated and validated by experts of the industrial domain before their reuse and/or integration into the industrial system. Throughout this approach, we have given a privileged position to Conceptual Graphs (CGs), knowledge representation formalism chosen in order to facilitate the storage, processing and understanding of the extracted knowledge by the user for future exploitation. This thesis is divided into four chapters. The first chapter is a state of the art addressing the generalities of the two scientific threads that contribute to our proposal: EF and KDD. The second chapter presents the EF-KDD suggested approach and the tools used for the generation of new knowledge, in order to exploit the available information describing past experiences. The third chapter suggests a structured methodology for interpreting and evaluating the usefulness of the extracted knowledge during the post-processing phase in the KDD process. Finally, the last chapter discusses real case studies dealing with the industrial maintenance domain, on which the proposed approach has been applied

Libri sul tema "Génération à partir de données":

1

Lacoste, Isabelle. Éducation et croissance: Une étude empirique à partir de données françaises au XXe siècle. Paris: Economica, 2005.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

H'Meyada, Mohamed Ould. Rapport de l'étude du genre à partir des données du RGPH 2013 en Mauritanie. Nouakchott: République islamique de Mauritanie, Office national de la statistique (ONS), Recensement général de la population et de l'habitat (RGPH), 2013, Bureau central du recensement (BCR), 2016.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Statistique Canada. Direction des études analytiques. Élaboration de données-panel longitudinales à partir de registres des entreprises: Observations du Canada. Ottawa, Ont: Statistics Canada, 1992.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Arregros, Marielle. Niger: Bibliographie réalisée à partir de la Banque de données IBISCUS triée par grands domaines. Paris: Documentation française, 1990.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Coursier, Jacques. Métallurgie extractive: Essai de définition de procédés industriels à partir des données physicochimiques et économiques. Paris: Masson, 1986.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Sylve, Claire. Dans les profondeurs de l'être raciste: Approche du racisme à partir des simples données perceptives. Paris, France: Harmattan, 2005.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Niger. Ministère de l'économie et des finances. Les caracteristiques demographiques et socio-economiques des menages à partir des données du RGP/H 2001: Rapport definitif. Niamey: The Ministry, 2006.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

analytiques, Statistique Canada Direction des études. Estimation des pertes de sol sur les terres agricoles à partir des données du recensement de l'agriculture sur les superficies cultivées. Ottawa, Ont: Statistique Canada, 1989.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Lowell, Kim. Nouvelle méthode pour estimer le volume local à partir de photographies à grande échelle et de données de terrain, projet #3054. Sainte-Foy, Qué: Service canadien des forêts, Région du Québec, 1997.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Gérardin, V. Une classification climatique du Québec à partir de modèles de distribution spatiale de données climatiques mensuelles: Vers une definition des bioclimats du Quebec. [Québec]: Direction du patrimoine ecologique et du developpement durable, Ministere de l'Environnement, 2001.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Génération à partir de données":

1

Thiolas, Pierre. "Formes architecturales et fonctions de l’aditus maximus dans les théâtres du Proche‑Orient romain". In Les théâtres antiques et leurs entrées, 95–116. Lyon: MOM Éditions, 2024. http://dx.doi.org/10.4000/11qro.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La grande majorité des théâtres antiques connus au Proche‑Orient sont de type romain et forment un corpus à part entière comptant à ce jour une soixantaine d’édifices en incluant les odéons et autres petits théâtrons mal identifiés, ainsi que les théâtres de rituels. Bien que l’étude d’un tel corpus reste à ce jour malaisée (absence de synthèse, diversité des édifices, publications disséminées et écrites dans différentes langues), il est possible de cerner, à partir des données accessibles, les principales caractéristiques architecturales et décoratives des aditus maximi de cette région, ainsi que d’en tracer les évolutions.
2

Uhry, Z. "Effet du dépistage du cancer du sein sur la mortalité : modélisation à partir de données françaises". In Cancer du sein : surdiagnostic, surtraitement, 224–28. Paris: Springer Paris, 2012. http://dx.doi.org/10.1007/978-2-8178-0249-7_45.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Bourdé, Annabel, Marc Cuggia, Théo Ouazine, Bruno Turlin, Oussama Zékri, Catherine Bohec e Régis Duvauferrier. "Vers la définition automatique des éléments de données des fiches RCP en cancérologie à partir d’une ontologie". In Informatique et Santé, 121–30. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_11.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

ESLAMI, Yasamin, Mario LEZOCHE e Philippe THOMAS. "Big Data Analytics et machine learning pour les systèmes industriels cyber-physiques". In Digitalisation et contrôle des systèmes industriels cyber-physiques, 175–95. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch9.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce chapitre illustre, à travers les concepts de big data et de machine learning, comment il est possible d’exploiter l’immense masse de données qui peut être capitalisée au niveau de la couche cyber des ICPS. En effet, un ICPS est plus que la mise en réseau et l’exploitation des technologies de l’information. Les informations et les connaissances sont intégrées aux objets dans leur partie physique et sont connectées à leur partie cybernétique. En intégrant la perception, la communication, l’apprentissage, la génération de comportements et le raisonnement dans ces systèmes, une nouvelle génération de systèmes intelligents et autonomes peut alors être développée.
5

"Outils de génération automatique des modèles". In Conception de bases de données avec UML, 447–504. Presses de l'Université du Québec, 2007. http://dx.doi.org/10.2307/j.ctv18pgv5t.10.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Courgeau, Daniel. "Estimations à partir de données incomplètes". In Méthodes de mesure de la mobilité spatiale, 325–38. Ined Éditions, 2021. http://dx.doi.org/10.4000/books.ined.15850.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Mouchabac, Stéphane. "Antipsychotiques de seconde génération dans la dépression résistante : données cliniques". In Dépressions Difficiles, Dépressions Résistantes, 17–23. Elsevier, 2013. http://dx.doi.org/10.1016/b978-2-294-73727-5.00003-9.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

"La Génération à Partir de l’Esprit et de l’Âme". In Le Livre des Haltes (Kitâb al-Mawâqif), Tome I, 458–59. BRILL, 2000. http://dx.doi.org/10.1163/9789004453029_159.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

VOLK, Rebekka. "Modéliser le bâti immobilier existant : planification et gestion de la déconstruction". In Le BIM, nouvel art de construire, 157–79. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9110.ch7.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Description de la situation actuelle de l'utilisation du BIM à la fin du cycle de vie d'un bâtiment. Présentation de l’état de l'art de la génération de données des bâtiments existants. Passage en revue des approches et des développements actuels concernant l'utilisation du BIM dans la déconstruction et mise en perspective des futures orientations de la R&D.
10

Lauer, Donald T., Laurent Breton, Patrick Dayan, Jean-Pierre Delmas, Alain Jacqmin e J. Denègre. "PROCESSUS D'EXTRACTION D'INFORMATIONS à PARTIR DES DONNÉES SATELLITES". In Thematic Mapping from Satellite Imagery: a Guidebook, 215–31. Elsevier, 1994. http://dx.doi.org/10.1016/b978-0-08-042351-7.50019-7.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Atti di convegni sul tema "Génération à partir de données":

1

Devictor, Nicolas. "Quatrième génération : situation internationale". In Données nucléaires : avancées et défis à relever. Les Ulis, France: EDP Sciences, 2014. http://dx.doi.org/10.1051/jtsfen/2014donra02.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Chevalier, Marcel, Laurent Buchsbaum, Yoann Robin e Gaël Le Godais. "Génération automatique de réseaux de Petri à partir de réseaux électriques". In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61815.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

REY, Vincent, Caroline PAUGAM, Christiane DUFRESNE, Didier MALLARINO, Tathy MISSAMOU e Jean-Luc FUDA. "Seiches à l’échelle de baies : origines et identification des périodes propres d’oscillations à partir des données d’observations sur le long terme en Provence à partir du réseau HTM-NET". In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2022. http://dx.doi.org/10.5150/jngcgc.2022.093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

CARTIER, Adrien, e Arnaud HEQUETTE. "Evaluation des flux sédimentaires sur les plages macrotidales du Nord-Pas-de-Calais à partir de données hydrodynamiques et de piégeages in situ". In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2010. http://dx.doi.org/10.5150/jngcgc.2010.023-c.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

MAGNOL, Laetitia, Magali SAGE, Karine VUILLIER, Anne DRUILHE e Séverine NADAUD. "L’utilisation des animaux en sciences : pourquoi et comment ?" In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.213.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour progresser, la recherche en biologie animale s’appuie sur des données obtenues à partir de prélèvements faits sur des êtres vivants et sur différents modèles complémentaires. Ces modèles miment tout ou partie de l’être vivant étudié et reposent sur la modèlisation informatique (approche in silico), sur l’analyse de molécules en « tubes » et la culture de cellules ou de tissus (in vitro) et sur le recours aux animaux (in vivo). Les modèles in silico et in vitro sont très utilisés mais ne permettent pas, à l’heure actuelle, de reproduire la complexité d’un organisme vivant. L’utilisation des animaux en sciences reste d’actualité, et est menée dans un cadre juridique et éthique qui protège les animaux et exige le respect de leur bien-être. Dans les pages qui suivent, sont présentés le cadre européen actuellement en vigueur et les justifications de l’utilisation des animaux à des fins scientifiques au niveau international et au sein de l’établissement utilisateur d’animaux qu’est l’Université de Limoges.
6

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros e D. Tardivo. "Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie". In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
7

ORLIANGES, Jean-Christophe, Younes El Moustakime, Aurelian Crunteanu STANESCU, Ricardo Carrizales Juarez e Oihan Allegret. "Retour vers le perceptron - fabrication d’un neurone synthétique à base de composants électroniques analogiques simples". In Les journées de l'interdisciplinarité 2023. Limoges: Université de Limoges, 2024. http://dx.doi.org/10.25965/lji.761.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées récentes dans le domaine de l'intelligence artificielle (IA), en particulier dans la reconnaissance d'images et le traitement du langage naturel, ouvrent de nouvelles perspectives qui vont bien au-delà de la recherche académique. L'IA, portée par ces succès populaires, repose sur des algorithmes basés sur des "réseaux de neurones" et elle se nourrit des vastes quantités d'informations accessibles sur Internet, notamment via des ressources telles que l'encyclopédie en ligne Wikipédia, la numérisation de livres et de revues, ainsi que des bibliothèques de photographies. Si l'on en croit les propres dires du programme informatique ChatGPT, son réseau de neurones compte plus de 175 millions de paramètres. Quant à notre cerveau, qui était le modèle initial de cette approche connexionniste, il compte environ 86 milliards de neurones formant un vaste réseau interconnecté... Dans ce travail, nous proposons une approche plus modeste de l'IA en nous contentant de décrire les résultats que l'on peut obtenir avec un seul neurone synthétique isolé, le modèle historique du perceptron (proposé par Frank Rosenblatt dans les années 1950). C'est un "Retour vers le futur" de l'IA qui est entrepris pour fabriquer et tester un neurone artificiel à partir de composants électroniques simples. Celui-ci doit permettre de différencier un chien d'un chat à partir de données anatomiques collectées sur ces animaux.

Rapporti di organizzazioni sul tema "Génération à partir de données":

1

Stasiuk, L. D., e W. W. Nassichuk. Données thermiques à partir d'une analyse pétrographique des matières organiques dans les cheminées de kimberlite au la de Gras (T.N.-O.). Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1996. http://dx.doi.org/10.4095/211727.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Moran, Kevin, Dalibor Stevanovic e Adam Kader Touré. Le pessimisme risque de nous plonger dans une récession. CIRANO, settembre 2023. http://dx.doi.org/10.54932/htmw1091.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis plus d’un an, différentes enquêtes rapportent que les entreprises et consommateurs canadiens sont plutôt pessimistes quant à la situation économique. Évaluer dans quelle mesure cette vague de pessimisme peut causer un ralentissement économique représente un défi méthodologique auquel les auteurs s’attaquent dans une récente étude CIRANO. À partir de données historiques canadiennes et américaines et d’analyses de causalité basées sur des modèles vectoriels autorégressifs, les auteurs suggèrent que les corrélations entre confiance et activité économique contiennent effectivement une composante causale. En conséquence, les récentes baisses observées dans les mesures de confiance pourraient mener à un ralentissement économique.
3

Hicks, Jacqueline, Alamoussa Dioma, Marina Apgar e Fatoumata Keita. Premiers résultats d'une évaluation de recherche-action systémique au Kangaba, Mali. Institute of Development Studies, aprile 2024. http://dx.doi.org/10.19088/ids.2024.019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article présente les premiers résultats d’une recherche d’évaluation intégrée dans un projet communautaire de consolidation de la paix mis en œuvre au Mali. Appelé « Vestibule de la paix », le projet utilise la recherche-action systémique (SAR) pour aider dans un premier temps divers membres de communautés locales sélectionnées à recueillir et analyser des récits de vie en traçant les moteurs systémiques du conflit. Cette analyse causale motive ensuite la génération de solutions collectives à certains moteurs à travers des Groupes de Recherche-Action facilités (GRA). L’approche SAR, une approche alternative et participative à la consolidation de paix, vise à impliquer et à donner aux acteurs locaux les moyens de renforcer leur capacité d’agir alors qu’ils définissent et négocient des voies innovantes pour parvenir à la paix au quotidien. La conception globale de l’évaluation du projet Vestibule de la Paix utilise l’analyse des contributions comme principale approche d’évaluation, utilisant plusieurs méthodes pour explorer des « point chauds causals » spécifiques. Cet article présente les résultats d'études de cas approfondies de GRA dans le cadre de l'approche SAR dans la région de Kangaba au Mali. Il s'agit d'une méthode utilisée dans la conception de l'analyse de contribution qui vise à décrire le contexte, les mécanismes et la dynamique d'une sélection de GRA. Les sources de données proviennent de la documentation des processus GRA par les membres du GRA et l’équipe du projet, d'entretiens et de séances de réflexion avec les participants et les facilitateurs. Après avoir décrit les processus internes des groupes, l'article rassemble ensuite un récit de contribution pour partager des résultats comparatifs sur la façon dont les processus GRA ont fonctionné pour qui et dans quel contexte.
4

Connolly, Marie, Catherine Haeck e Lucie Raymond-Brousseau. La mobilité sociale au Québec selon différents parcours universitaires. CIRANO, febbraio 2022. http://dx.doi.org/10.54932/nrzm8999.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif principal de ce rapport est de présenter une analyse descriptive de la mobilité sociale des diplômés du baccalauréat des différentes universités du Québec selon le domaine d’études, mobilité étant ici captée par la transmission intergénérationnelle du revenu. À partir de données administratives sur l’ensemble des étudiants du Québec, il est possible d’observer les taux de diplomation ainsi que les revenus des diplômés une fois sur le marché du travail, le tout par quintile de revenu parental. Au niveau de la fréquentation universitaire de premier cycle au Québec, nous observons une surreprésentation des étudiants provenant de milieux plus aisés. Nos résultats suggèrent également que le taux de diplomation des étudiants au baccalauréat est plus faible pour les étudiants provenant de familles à faible revenu et augmente avec le quintile de revenu parental. Notre analyse de la mobilité intergénérationnelle, à l’aide d’une matrice de transition, suggère que les jeunes diplômés universitaires ont une assez bonne mobilité relativement à la population comprenant tous les niveaux de scolarité, et que les étudiants provenant de milieux moins favorisés ont une mobilité nettement supérieure à leur population de référence. Nous calculons aussi, par université et domaine d’études, une mesure de mobilité intergénérationnelle qui tient compte de l’accès aux études universitaires et de la mobilité ascendante (passer du quintile inférieur de revenu au quintile supérieur). On constate que la mobilité ascendante varie d’une université à l’autre, mais également par domaine d’études, les institutions spécialisées en ingénierie et les programmes en science, technologie, ingénierie et mathématiques démontrant les mobilités ascendantes les plus élevées. Une limite importante de nos données est que l’horizon de temps suivant l’obtention du diplôme est limité, de telle sorte que les revenus d’emploi observés ne sont pas nécessairement représentatifs du revenu permanent des diplômés.
5

Dudley, J. P., e S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
6

Saulais, Laure, e Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, agosto 2022. http://dx.doi.org/10.54932/ziga3839.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
7

Robert Guertin, Jason, Naomie Chouinard, Chanel Beaudoin Cloutier, Philippe Lachapelle, Normand Lantagne, Maude Laberge e Thomas G. Poder. Estimation du coût de l’hospitalisation index des patients admis dans une unité de soins des grands brûlés d’un centre hospitalier du Québec selon deux approches méthodologiques. CIRANO, maggio 2024. http://dx.doi.org/10.54932/fxem6229.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les traumatismes de brûlures sévères sont reconnus comme étant parmi les plus sévères en termes de morbidités et de mortalité qu’un individu peut vivre. Étant donné la nature des hospitalisations et des soins requis, ces hospitalisations sont reconnues comme étant parmi les plus dispendieuses au sein du système de santé. Les analyses de coûts en santé permettent de quantifier la valeur monétaire des ressources utilisées lors d’un épisode de soins. Historiquement, au Québec, l’approche basée sur le niveau d’intensité relative des ressources utilisées (NIRRU) était l’approche la plus utilisée lorsqu’on désirait examiner le coût d’un séjour hospitalier. Une nouvelle méthode est récemment apparue, soit l’approche basée sur le Coût par parcours de soins et de services (CPSS). À partir de données du Centre de valorisation et d’exploitation de la donnée (SCIENTA) du CHU de Québec-Université Laval portant sur 362 hospitalisations index liées à des traumatismes de brûlures sévères étudiées, les auteurs montrent que les coûts moyens directs estimés selon l’approche du CPSS sont 73 % plus élevés que ceux obtenus selon l’approche du NIRRU. Par contre, il n’est pas possible de déterminer laquelle des deux estimations se rapproche le plus du coût moyen réel. Aussi, il n’est pas possible d’exclure le risque que les différences observées entre les coûts estimés selon les approches méthodologiques soient spécifiques aux populations et conditions étudiées.
8

Agenda de recherche sur la sécurité alimentaire et la nutrition au Bénin. African Center for Equitable Development (ACED), gennaio 2023. http://dx.doi.org/10.61647/aced8793.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité alimentaire et la nutrition (SAN) sont des enjeux majeurs de développement au Bénin, qui concentrent pleinement l’attention des décideurs politiques, de la société civile et des partenaires au développement. Malheureusement, les efforts et investissements pour une meilleure SAN sont constamment fragilisés par les crises environnementales (ex. changements climatiques), sanitaires (ex. COVID-19), sécuritaires (ex. la montée des mouvements djihadistes), politiques ou géopolitiques (ex. crise Russo-Ukrainienne), etc. Il est désormais clair que les objectifs de pleine SAN ou de faim zéro ne seront malheureusement pas atteints à l’horizon 2025 et 2030, non pas par défaut d’engagement politique et d’interventions volontaristes, mais du fait de la nature complexe, multiforme et dynamique de la problématique de la SAN. La prise en main de la problématique de la SAN requiert dès lors la production de données probantes actualisées et fiables sur la SAN afin d’informer et d’orienter les interventions des décideurs politiques et les actions des acteurs de la société civile et des partenaires au développement. A cet effet, il est impératif de disposer d’un agenda de recherche à court terme spécifique à la SAN, capable d’informer et de guider les interventions pour une meilleure SAN. C’est dans ce cadre que ACED en collaboration avec les ministères en charge de l’agriculture et de l’enseignement supérieur au Bénin, a initié la formulation de cent (100) questions de recherche critiques et actuelles sur la SAN. Il s’agit des questions de recherche pour lesquelles il existe un besoin pressant de réponses sous forme de données probantes pouvant informer les actions et les interventions en cours, ou en susciter de nouvelles (i.e. initiatives communautaires, politiques, plans, programmes, projets). L’initiative de formulation des 100 questions de recherche actuelles et critiques sur la SAN au Bénin a pour finalités le développement d’un agenda de recherche, et la facilitation de la production de données probantes portant sur les nécessités dans le domaine de la SAN au Bénin. De façon plus spécifique, l’initiative vise à : Recueillir les intérêts et besoins en données probantes des acteurs de l’écosystème de la SAN au Bénin, sous forme de questions de recherche ; Identifier les questions de recherche prioritaires pour lesquelles il existe un besoin pressant et critique de réponses sous forme de données probantes pouvant informer les actions et les interventions en cours, ou en susciter de nouvelles ; Faciliter la production de données probantes à partir des questions de recherche prioritaires identifiées.
9

Gestion de la pandémie de COVID-19 - Analyse de la dotation en personnel dans les centres d'hébergement de soins de longue durée du Québec au cours de la première vague. CIRANO, giugno 2023. http://dx.doi.org/10.54932/fupo1664.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Faisant suite à une demande de la Commissaire à la santé et au bien-être, cette étude dresse un portrait de l'évolution de la main-d'oeuvre dans les centres d'hébergement de soins longue durée (CHSLD) avant et pendant la première vague de la pandémie de COVID-19. L’étude s’inscrit dans un effort méthodologique exploratoire visant à analyser l’adéquation entre l’offre de ressources humaines et les besoins des résidents à partir des données disponibles et des outils existants. Elle s’appuie sur un devis longitudinal rétrospectif et utilise des données administratives et clinico-administratives de quatre établissements : trois dans la grande région de Montréal, plus touchés par la première vague, et un établissement hors de la grande région de Montréal. L’étude a répondu aux trois questions suivantes : Dans quelle mesure l’offre de ressources humaines correspondait-elle aux besoins des résidents en CHSLD, avant et pendant la première vague de la pandémie ? Dans quelle mesure l’initiative Je Contribue et le recours aux agences de placement ont permis d’élargir le bassin de main-d’œuvre disponible ? Quelle a été l’ampleur de l’absentéisme et quel a été son impact sur le bassin de main-d’œuvre disponible ? Les auteurs comparent trois méthodes d’estimation des besoins : les profils Iso-SMAF, les ratios minimaux proposés par Voyer et coll. (2016) et les standards recommandés par les US Centers for Medicare and Medicaid Services. Les résultats montrent que les établissements ont fait preuve d’une grande capacité d’adaptation en mobilisant les ressources humaines nécessaires pour atteindre ou même dépasser les ratios minimaux requis. Le nombre de travailleurs de la santé pour 100 résidents a légèrement augmenté au cours de la première vague. Ceci tient compte du fait qu’au cours de la première vague, le nombre de résidents hébergés par établissement a diminué, probablement en raison des décès de plusieurs d’entre eux. L’analyse montre aussi que les établissements les plus touchés par la première vague ont pu maintenir un ratio travailleurs/résidents équivalent ou supérieur aux ratios observés durant la période prépandémie, et ce, malgré une augmentation de taux d’absentéisme de 75 % entre les deux périodes. Ces résultats doivent être interprétés avec prudence puisque l’analyse ne tient pas compte de facteurs plus qualitatifs comme le soutien des gestionnaires, la mobilité des ressources humaines ou la connaissance des pratiques cliniques et organisationnelles du personnel. Au-delà nombre de travailleurs et travailleuses, ces facteurs influencent grandement la performance ou la qualité des services offerts dans un contexte de crise sanitaire. Ce rapport est le deuxième volet d’un projet CIRANO plus large qui examinait sous divers angles les situations de fragilité qui ont pu affecter la performance du système de santé dans sa réponse à la pandémie. Un premier rapport publié en juin 2022 s’appuyait sur une enquête réalisée auprès de 2365 travailleuses et travailleurs. Ce premier volet s’intéressait à leurs perceptions quant aux ressources auxquelles ils ont eu accès et aux exigences et contraintes auxquelles ils ont dû faire face.

Vai alla bibliografia