Literatura académica sobre el tema "Analyse à grande échelle"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Analyse à grande échelle".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Analyse à grande échelle"

1

Angeli, Nadine, Daniel Gerdeaux y Jean Guillard. "Analyse géostatistique des répartitions horizontales printanières de la biomasse zooplanctonique et des variables physico-chimiques dans un petit lac". Revue des sciences de l'eau 19, n.º 4 (17 de enero de 2007): 285–94. http://dx.doi.org/10.7202/014416ar.

Texto completo
Resumen
Résumé À partir d’un échantillonnage intensif du lac de Nantua, nous avons déterminé à quelles échelles les structures spatiales de la biocénose et de son environnement sont le plus fortement exprimées à l’aide de techniques géostatistiques. Ces résultats obtenus au printemps portent sur des descripteurs globaux (biomasse totale, moyennes déduites des profils verticaux enregistrés par sonde multiparamètre). Les modèles de variogrammes ajustés aux données montrent qu’une forte part de la variance totale s’exprimait à grande échelle pour le zooplancton total, à très petite échelle, au contraire, pour les descripteurs reflétant l’activité métabolique lacustre. La liaison des différentes variables explorées avec la température variait en outre fortement avec l’augmentation de la distance inter-stations, confortant l’hypothèse que des facteurs structurants distincts se succédaient sur la plage d’échelles considérée. Cette étude fondée sur des variables globales souligne la difficulté d’extrapoler les liaisons entre variables ou processus à d’autres échelles que celle(s) observée(s).
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

CORPET, F. y C. CHEVALET. "Analyse informatique des données moléculaires". INRAE Productions Animales 13, HS (22 de diciembre de 2000): 191–95. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3837.

Texto completo
Resumen
Les données biologiques, en particulier les séquences d’ADN, s’accumulent extrêmement rapidement. Pour exploiter toutes ces données, une nouvelle science est née, la bioinformatique. Accéder de manière rapide et fiable aux données disponibles dans les banques internationales et analyser les données expérimentales produites à grande échelle nécessitent des outils informatiques puissants et en perpétuel développement. Assembler les séquences brutes, trouver les unités fonctionnelles des séquences génomiques, comparer les séquences entre elles, prédire les structures et les fonctions des macromolécules, comprendre les interactions entre les gènes et leurs produits en termes de réseaux métaboliques mais aussi d’évolution des espèces : toutes ces questions nécessitent l’utilisation de la bioinformatique et son développement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hardy, M. C., S. Lancrenon y Y. Lecrubier. "Construction et validation d'une nouvvelle échelle biaxiale d'évaluation des états maniaques". Psychiatry and Psychobiology 1, n.º 3 (1986): 221–31. http://dx.doi.org/10.1017/s0767399x00000079.

Texto completo
Resumen
RésuméLes nombreuses études consacrées récemment au trouble maniaque et la diversité des essais thérapeutiques proposés dans cette pathologie témoignent du regain d’intérêt qu'elle suscite et impose de revoir les instruments permettant de l’évaluer. Une brève revue est faite des échelles de manie actuellement validées. Aucune n’apparaît réellement satisfaisante.Une nouvelle échelle d’évaluation de la symptomatologie maniaque est proposée. La sélection des items de cette échelle n’a pas été faite a priori mais après une analyse réalisée à partir d’une liste de 67 items. Ces 67 items couvraient l’ensemble des symptômes attribués classiquement à la manie. Les données d’une première analyse factorielle, effectuée sur ces 67 items, testés chez 37 maniaques, a permis la sélection de 25 items. Cette deuxième liste de 25 items a été testée chez 24 maniaques inclus dans un protocole de traitement de 2 semaines par la clonidine. Une analyse en composantes principales sur ces 25 items permet de dégager 3 facteurs expliquant respectivement 27.4 %, 11 % et 9 % de la variance (tableau 1).Le ler facteur pouvait être interprété comme un facteur d’intensité du tableau maniaque. Le 2ème facteur pouvait être interprété comme un facteur évaluant la composante délirante du tableau.L’échelle proposée est une échelle biaxiale.- le ler axe peut être considéré comme une échelle d’intensité de la manie (sous-échelle EIM).Nous avons retenu pour la constituer les 10 items les mieux corrélés au ler facteur (après rotation Varimax).- Le 2ème axe constitue une sous-échelle de délire. L’activité délirante est évaluée indépendamment de l’intensité du tableau maniaque.L’EIM (Échelle d’Intensité Maniaque) présente une bonne homogénéité, la corrélation des items au score global à J0, appréciée par le coefficient de corrélations de Pearson est significative (p < 0.01)(tableau 2). La fidélité inter-cotateurs est très satisfaisante, la concordance sur la note globale, appréciée par le coefficient de Spearman et celui de Fisher est proche de l (tableau 3). La validaté, appréciée en utilisant un critère de validité externe (comparaison avec l’échelle de Bech et Rafaelsen) est bonne : les coefficients de corrélation entre les scores de l’échelle de Bech et l’échelle d’intensité de l’état maniaque varient, aux différents temps du protocole de traitement, entre 0.82 et 0.94 (tableau 4). La sensibilité du changement sous traitement est globalement équivalente à celle de l’échelle de Bech et Rafaelsen. Cependant, notre échelle semble plus performante pour évaluer la pathologie légère et pour apprécier finement les différents degrés de l’amélioration (tableau 5).Des analyses plus détaillées (notamment de la composition du 3ème axe) sont prévues lorsqu’un plus grand nombre de cas aura été évalué. Il faut enfin relever que les tableaux de validation présentés ici portent sur le nombre de cas le plus éléve de la littérature.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Gherra, Sandrine. "Orientation « parties prenantes » de l’entreprise : validation d’une échelle de mesure". Économies et Sociétés. Systèmes agroalimentaires 46, n.º 1034 (2012): 1889–907. http://dx.doi.org/10.3406/esag.2012.1083.

Texto completo
Resumen
L’objectif de cet article est de proposer et de valider une échelle de mesure de l’orientation parties prenantes. Une revue de la littérature sur les travaux en marketing et sur l’approche des parties prenantes est réalisée afin de construire l’échelle. Au terme d’une analyse qualitative, l’échelle est ensuite testée quantitativement sur 188 entreprises de l’industrie des produits de grande consommation à dominante alimentaire en France au début de l’année 2010. Les résultats attestent de sa validité et de sa fiabilité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Liuz Beber, Caetano y Claire Cerdan. "L’approche Syal : une possible clé de lecture des dynamiques de l’agribusiness des grands espaces agricoles ?" Économies et Sociétés. Systèmes agroalimentaires 45, n.º 1033 (2011): 1869–78. http://dx.doi.org/10.3406/esag.2011.1065.

Texto completo
Resumen
La Pampa argentine et l’Amazonie brésilienne se caractérisent par la coexistence d’agricultures familiales et de firmes agroindustrielles qui juxtaposent ou associent des modèles différents de développement dans le territoire. Comment penser les processus de valorisation des ressources territoriales et de coordination entre acteurs privés et acteurs publics dans ces régions ? Cet article analyse dans quelle mesure l’approche SYAL peut être considérée comme clé de lecture pour ces dynamiques spatiales de grande échelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Duhaime, Gérard y Anne Godmaire. "Les modèles de développement du nord. Analyse exploratoire au Québec isolé". Recherche 43, n.º 2 (24 de febrero de 2003): 329–51. http://dx.doi.org/10.7202/000541ar.

Texto completo
Resumen
Résumé Dispersées dans tout le Québec non urbanisé, quelque 80 agglomérations dites du « Québec isolé » forment des regroupements ethnogéographiques aux contours flous dont les destins socioéconomiques sont très différents. Cette étude examine les modèles de développement de ces communautés. Elle est fondée sur une analyse comparative détaillée de plusieurs dizaines de variables portant sur la démographie, l’éducation, la santé, le logement, le revenu personnel, les dépenses publiques, les activités économiques. Neuf indicateurs clés sont analysés ici. L’étude montre que ces réalités forment quatre modèles de développement, qui se distinguent principalement suivant le type d’exploitation des ressources naturelles et les caractéristiques de la population. Dans les régions où l’exploitation des ressources est pratiquée à grande échelle, les populations bénéficient des retombées économiques du développement. Mais elles le font selon des modalités différentes, directement parce que les familles en ont fait leur gagne-pain, ou indirectement parce que les populations en cause ont pu capitaliser sur l’attrait des ressources. Dans les régions où l’exploitation des ressources est pratiquée à petite échelle, où la prospérité n’est plus assurée par des mécanismes autrefois efficaces, la situation générale se détériore non seulement parce que l’infrastructure économique demeure faible, mais aussi parce que les populations n’ont pas le poids politique pour qu’il en soit autrement. Dans cette perspective, le facteur ethnique serait un déterminant bien moins important que la présence de richesses massives et la capacité d’en tirer localement partie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Marcotte, Sylvie y Pascale Lefrançois. "Quelles stratégies pédagogiques participent au développement de la compétence scripturale ? Analyse secondaire d’une enquête à grande échelle". Revue des sciences de l’éducation 47, n.º 2 (1 de octubre de 2021): 27–59. http://dx.doi.org/10.7202/1082075ar.

Texto completo
Resumen
Pour connaitre les stratégies pédagogiques utilisées en classe de français au secondaire québécois qui participent au développement de la compétence scripturale des élèves, nous effectuons1 une analyse secondaire de données collectées par le groupe Description internationale des enseignements et des performances en matière d’écrits (DIEPE, 1995) (1815 élèves de troisième secondaire du Québec, 300 enseignant⋅e⋅s de français). Aucune stratégie pédagogique ne prédit, avec un haut degré de confiance, l’écriture de textes de meilleure qualité par les élèves (régressions multiples à deux niveaux), mais faire écrire beaucoup les élèves pourrait être lié à de meilleures performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Garneau, Michelle. "Reconstitution paléoécologique d’une tourbière littorale de l’estuaire du Saint-Laurent : analyse macrofossile et sporopollinique". Géographie physique et Quaternaire 41, n.º 1 (18 de diciembre de 2007): 109–25. http://dx.doi.org/10.7202/032669ar.

Texto completo
Resumen
RÉSUMÉ L'analyse détaillée d'une carotte (long. 1,30 m) prélevée dans une tourbière située à la marge d'un marais à spartines à l'Isle-Verte (comté de Rivière-du-Loup) permet de reconstituer l'environnement littoral du début de sa formation jusqu'à nos jours. L'étude sporopollinique et celle des macrorestes végétaux sont complétées par l'analyse microstratigraphique des séquences organiques et minérales (lames minces). Une série de datations 14C en fixe le cadre chronostratigraphique. Les résultats obtenus permettent 1) de comprendre la dynamique sédimentaire du marais et sa transformation graduelle en une tourbière, 2) de vérifier la correspondance entre la toposéquence actuelle du littoral et la chronoséquence étudiée. L'interprétation des changements observés peut être rattachée à des phénomènes de plus grande échelle telles les fluctuations climatiques, celles du niveau marin ou les deux à la fois.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Tolone, Elsa. "Analyse syntaxique à l’aide des tables du Lexique-Grammaire du français". Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 35, n.º 1 (2 de octubre de 2012): 147–51. http://dx.doi.org/10.1075/li.35.1.07tol.

Texto completo
Resumen
Lexicon-Grammar tables, whose development was initiated by Gross (1975), are a very rich syntactic lexicon for the French language. They cover various lexical categories such as verbs, nouns, adjectives and adverbs. This linguistic database is nevertheless not directly usable by computer programs, as it is incomplete and lacks consistency. Tables are defined on the basis of features which are not explicitly recorded in the lexicon. These features are only described in literature. To use these tables, we must make explicit the essential features appearing in each one of them. In addition, many features must be renamed for consistency sake. Our aim is to adapt the tables, so as to make them usable in various Natural Language Processing (NLP) applications, in particular parsing. We describe the problems we encountered and the approaches we followed to enable their integration into a parser. LGExtract LGLex fff Lexique des Formes Fléchies du Français fff Produire des Annotations Syntaxiques à Grande Échelle et al fff
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Moderie, Christophe, Sébastien Béland, Éric Drouin, Richard Rioux, Anne-Sophie Thommeret-Carrière y Jean-Michel Leduc. "Traduction et évaluation psychométrique préliminaire des échelles de préjugés traditionnels et modernes envers les Autochtones". Pédagogie Médicale 22, n.º 3 (2021): 117–24. http://dx.doi.org/10.1051/pmed/2021010.

Texto completo
Resumen
Contexte : Les programmes de la santé innovent pour bonifier l’enseignement des réalités autochtones aux étudiants allochtones. Il n’existe toutefois pas d’échelle validée en français pour évaluer l’effet de ces interventions sur les préjugés à l’égard des autochtones. But : Cet article présente le processus de traduction en français et une évaluation psychométrique préliminaire des Old-Fashioned et Modern Prejudiced Attitudes Toward Aboriginals Scales (O-PATAS et M-PATAS). Méthodes : Trente étudiants en médecine ont complété les versions originales (VO) et traduites (VF) et 78 étudiants additionnels ont complété la VF. L’alpha (α) de Cronbach et l’oméga (ω) de McDonald ont servi à évaluer la fidélité des scores des échelles. La validité concomitante a été testée à l’aide de corrélations intra-classes et de test-t pairés. La validité de construit a été explorée à l’aide d’une analyse factorielle à deux facteurs. Résultats : La fidélité des échelles VF est acceptable et comparable à celle trouvée dans les VO (α ≥ 0,81, ω ≥ 0,85). La validité concomitante des VF est soutenue par l’absence de différence entre les scores en VO et en VF (p ≥ 0,2) et la forte corrélation intra-classe entre les scores (r ≥ 0,80, p < 0,001). Le modèle d’analyse factorielle n’a pas reproduit la structure attendue, probablement à cause du manque de puissance de l’étude. Conclusion : Cette étude présente une VF des échelles M-PATAS et O-PATAS ayant des propriétés psychométriques préliminaires comparables aux échelles dans leur VO. L’utilisation à plus grande échelle de ces outils permettra d’évaluer leurs dimensionnalités en contexte francophone canadien.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Analyse à grande échelle"

1

Vargas-Magaña, Mariana. "Analyse des structures à grande échelle avec SDSS-III/BOSS". Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00726113.

Texto completo
Resumen
Le travail de ma thèse s'est concentré sur l'extraction du signal laissé par les BAO dans la distribution des galaxies. Celui se présente sous forme d'un pic autour de 150 Mpc dans la fonction de corrélation à deux point de la matière. Cette échelle correspond à la distance parcourue par l'onde acoustique dans le fuide matière-radiation entre la période d'égalité matière-radiation et leur découplage à z ∼ 1100. Il en résulte une sur-densité à cette échelle autour de chaque perturbation primordiale. Le but de mon travail était d'efectuer une analyse complète sur les données prises par la collaboration SDSS III/BOSS jusqu'à l'été 2011 afin d'apporter des contraintes sur les paramètres caractérisant l'énergie noire, w0 et wa . On veut savoir si ces observations sont consistantes avec la fameuse constante cosmologique (w0 = 1 et wa = 0) ou si l'équation d'état de l'énergie noire évolue avec le temps (wa ̸= 0) impliquant alors des scénarios bien plus complexes pour cette composante. Pour y arriver, j'ai étudié et testé les outils d'analyse avec des simulations log-normal ainsi qu'avec les données publiques du DR7 de SDSS. J'ai étudié les effets de distorsion des redshifts dans le régime linéaire avec des simulations et j'ai développé une méthode d'optimisation d'estimateur de fonction de corrélation. Dans un second temps j'ai réalisé l'analyse complète des données BOSS-CMASS, qui utilise les galaxies elliptiques très lumineuses (LRGs), depuis la construction du catalogue jusqu'à l'obtention des contraintes cosmologique en passant par la correction des effets systématiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Texto completo
Resumen
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Guedj, Mickaël. "Méthodes Statistiques pour l’analyse de données génétiques d’association à grande échelle". Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/2007EVRY0015.pdf.

Texto completo
Resumen
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse. Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux test d’association, les approches multi-marqueurs avec le développement d’une méthode fondée sur la statistique du Score Local, et enfin le problème du test-multiple avec l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien
The increasing availability of dense Single Nucleotide Polymorphisms (SNPs) maps due to rapid improvements in Molecular Biology and genotyping technologies have recently led geneticists towards genome-wide association studies with hopes of encouraging results concerning our understanding of the genetic basis of complex diseases. The analysis of such high-throughput data implies today new statistical and computational problematic to face, which constitute the main topic of this thesis. After a brief description of the main questions raised by genome-wide association studies, we deal with single-marker approaches by a power study of the main association tests. We consider then the use of multi-markers approaches by focusing on the method we developed which relies on the Local Score. Finally, this thesis also deals with the multiple-testing problem: our Local Score-based approach circumvents this problem by reducing the number of tests; in parallel, we present an estimation of the Local False Discovery Rate by a simple Gaussian mixed model
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Virazel, Arnaud. "Test intégré des circuits digitaux : analyse et génération de séquences aléatoires adjacentes". Montpellier 2, 2001. http://www.theses.fr/2001MON20094.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Albeau, Karine. "Analyse à grande échelle des textures des séquences protéiques via l'approche Hydrophobic Cluster Analysis (HCA)". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2005. http://tel.archives-ouvertes.fr/tel-00011139.

Texto completo
Resumen
Découper, a priori et de façon précise, les séquences en domaines est d'une grande importance dans le champ de la biologie, notamment pour optimiser les études de génomique structurale et de génomique fonctionnelle. Différentes approches basées sur la composition en acides aminés, la complexité de la séquence ou la construction de modèles 3D ab initio, ont été développées par le passé. Nous proposons, dans le cadre de ce travail, une approche nouvelle et originale pour le découpage automatique et sensible des séquences protéiques en domaines structurés distincts par exploitation de leur texture. Cette approche bénéficie de l'information de voisinage 2D apportée par la méthodologie « Hydrophobic Cluster Analysis » (HCA). La distribution des différentes catégories d'amas hydrophobes, tels que définis par l'intermédiaire de HCA, ainsi que l'analyse de leurs caractéristiques en termes de structures secondaires, permettent d'appréhender de façon différenciée les textures des régions globulaires, non globulaires et/ou désordonnées, répétitives, passages membranaires isolés ou multiples.... L'approche développée, DomHCA, permet in fine de segmenter une séquence protéique en une série de régions et sous-régions caractérisées par des textures précises, segmentation qui, appliquée à l'échelle des génomes, autorise une comparaison rapide et originale de l'ensemble des séquences. Une des applications concerne les séquences du génome de Plasmodium falciparum qui, par leurs fortes proportions en acides aminés N et K, rendent les méthodes classiques de détection de similarité peu efficaces.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Bland, Céline. "Innovations pour l'annotation protéogénomique à grande échelle du vivant". Thesis, Montpellier 1, 2013. http://www.theses.fr/2013MON13508.

Texto completo
Resumen
La protéogénomique consiste à affiner l'annotation du génome d'organismes modèles pour lesquels des données protéomiques sont générées à haut-débit. Des erreurs d'annotation structurale ou fonctionnelle sont encore fréquentes. Innover dans les méthodologies permettant de lever ces ambiguïtés est essentiel. L'étude spécifique du N-terminome permet de vérifier expérimentalement l'identification du codon d'initiation de la traduction et de certifier les données obtenues. Pour cela, deux stratégies innovantes ont été développées basées sur : i) le marquage sélectif du N-terminal des protéines, ii) une digestion multienzymatique en parallèle, et ii) l'enrichissement spécifique des peptides N-terminaux marqués par chromatographies liquides successives ou immunocapture dirigée contre le groupement N-terminal ajouté. L'efficacité de ces méthodologies a été démontrée à partir du modèle bactérien Roseobacter denitrificans. Après enrichissement par chromatographie, 480 protéines ont été validées et 46 ré-annotées. Plusieurs sites d'initiation de la traduction ont été décelés et l'annotation par similarité a été remise en cause dans certains cas. Après immunocapture, 269 protéines ont été caractérisées dont 40% ont été identifiées spécifiquement après enrichissement. Trois gènes ont également été annotés pour la première fois. Les résultats complémentaires obtenus après analyse par spectrométrie de masse en tandem facilitent l'interprétation des données pour révéler les sites d'initiation réels de la synthèse des protéines et identifier de nouveaux produits d'expression des gènes. La ré-annotation peut devenir automatique et systématique pour améliorer les bases de données protéiques
Proteogenomics is a recent field at the junction of genomics and proteomics which consists of refining the annotation of the genome of model organisms with the help of high-throughput proteomic data. Structural and functional errors are still frequent and have been reported on several occasions. Innovative methodologies to prevent such errors are essential. N-terminomics enables experimental validation of initiation codons and certification of the annotation data. With this objective in mind, two innovative strategies have been developed combining: i) selective N-terminal labeling of proteins, ii) multienzymatic digestion in parallel, and iii) specific enrichment of most N-terminal labeled peptides using either successive liquid chromatography steps or immunocapture directed towards the N-terminal label. Efficiency of these methodologies has been demonstrated using Roseobacter denitrificans as bacterial model organism. After enrichment with chromatography, 480 proteins were validated and 46 re-annotated. Several start sites for translation initiation were detected and homology driven annotation was challenged in some cases. After immunocapture, 269 proteins were characterized of which 40% were identified specifically after enrichment. Three novel genes were also annotated for the first time. Complementary results obtained after tandem mass spectrometry analysis allows easier data interpretation to reveal real start sites of translation initiation of proteins and to identify novel expressed products. In this way, the re-annotation process may become automatic and systematic to improve protein databases
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Flaounas, Emmanouil. "Analyse de la mise en place de la mousson Africaine : dynamique régionale ou forçage de grande échelle ?" Phd thesis, Paris 6, 2010. http://www.theses.fr/2010PA066625.

Texto completo
Resumen
La saison des pluies en Afrique de l'Ouest est primordiale pour les populations locales. La mise en place de la mousson (MAO) se produit fin juin et correspond à un affaiblissement global de la convection sur la région puis une transition brutale des précipitations de la côte de Guinée vers le Sahel. C'est le mécanisme responsable de ce « saut » qui est étudié ici à partir d'expériences numériques. La capacité du modèle à aire limitée WRF à reproduire la circulation de la MAO en 2006 a d'abord été évaluée. Différentes paramétrisations de la convection et de la couche limite ont été testées et leur impact sur les simulations analysé. Des tests de sensibilité ont ensuite été effectués pour évaluer le rôle de la dépression thermique saharienne et de la SST (mécanismes proposés dans d'autres études) sur la mise en place de la MAO. Les résultats montrent que la phase de transition dépend plus fortement de la dynamique de grande échelle que des éléments régionaux. Plus précisément, la mise en place de la mousson Indienne libère une onde de Rossby qui se propage vers l'ouest, arrive au dessus de l'Afrique du Nord en favorisant les intrusions de masses d'air sec au dessus de l'Afrique de l'Ouest qui inhibent la convection. En parallèle, le gradient méridien de pression de surface est renforcé et la MAO s'intensifie en advectant de l’humidité au dessus du Sahel. Une fois l'onde évacuée, la convection se réorganise au dessus du Sahel où les conditions thermodynamiques sont favorables. L'utilisation de simulations globales avec LMDz a confirmé le rôle de la mousson indienne sur toute la période 1989-2008 avec cependant des années plus ou moins marquées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Merroun, Omar. "Traitement à grand échelle des données symboliques". Paris 9, 2011. http://www.theses.fr/2011PA090027.

Texto completo
Resumen
Les méthodes de l’Analyse de Données (AD) classiques ont été généralisées dans l’Analyse de Données Symboliques (ADS) en prenant en charge les données complexes (intervalles, ensembles, histogrammes, etc. ). Ces méthodes expriment des operations de haut niveau et sont très complexes. Le modèle de l’ADS, qui est implanté dans le logiciel SODAS2, ne supporte pas le traitement de volumes importants de données symboliques. Conformément à la démarche classique en modélisation et traitement de masses de données, nous proposons un nouveau modèle de données pour représenter les données symboliques et les manipuler avec des opérateurs algébriques minimaux et clos par composition. Nous donnons aussi des exemples de requêtes pour montrer l’expressivité de ce modèle. Nous avons implanté ce modèle algébrique, nommé LS-SODAS, et définit un langage, nommé XSDQL, pour formuler des requêtes afin de manipuler les données symboliques. Nous réalisons deux études de cas qui illustrent d’une part l’expressivité de ce langage et la capacité à traiter des volumes de données importants
Symbolic Data Analysis (SDA) proposes a generalization of classical Data Analysis (AD) methods using complex data (intervals, sets, histograms). These methods define high level and complex operators for symbolic data manipulation. Furthermore, recent implementations of the SDA model are not able to process large data volumes. According to the classical design of massive data computation, we define a new data model to represent and process symbolic data using algebraic operators that are minimal and closed by composition. We give some query samples to emphasize the expressiveness of our model. We implement this algebraic model, called LS-SODAS, and we define the language XSDQL to express queries for symbolic data manipulation. Two cases of study are provided in order to show the potential of XSDQL langage expressiveness and the data processing scalability
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Bolze, Raphaël. "Analyse et déploiement de solutions algorithmiques et logicielles pour des applications bioinformatiques à grande échelle sur la grille". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00344249.

Texto completo
Resumen
Cette thèse présente un ensemble d'objectifs dont le fil conducteur est le programme Décrypthon (projet tripartite entre l'AFM, le CNRS et IBM) où les applications et les besoins ont évolué au fur et à mesure de l'avancée de nos travaux. Dans un premier temps nous montrerons le rôle d'architecte que nous avons endossé pour la conception de la grille Décrypthon. Les ressources de cette grille sont supportées par les cinq universités partenaires (Bordeaux I, Lille I, ENS-Lyon, Pierre et Marie Curie Paris VI et Orsay), ainsi que le réseau RENATER (Réseau National de Télécommunications pour l'Enseignement et la Recherche), sur lequel est connecté l'ensemble des machines. Le Centre de ressources informatiques de Haute Normandie (CRIHAN) participe également au programme, il héberge les données volumineuses des projets scientifiques. Nous présenterons ensuite les expériences que nous avons effectuées sur l'intergiciel DIET afin de tester ses propriétés de façon à explorer sa stabilité dans un environnement à grande échelle comme Grid'5000. Nous nous sommes intéressés, en outre, au projet "Help Cure Muscular Dystrophy", un des projets sélectionnés par le programme Décrypthon. Nous avons conduit des expériences dans le but de préparer la première phase de calcul sur la grille de volontaires "World Community Grid". Nous dévoilerons l'ensemble des étapes qui ont précédées et suivies la première phase calculatoire qui a demandé quelques 80 siècles de temps processeur. Pour terminer, nous avons développé une fonctionnalité à l'intergiciel DIET, le rendant capable de gérer l'exécution de tâches ayant des dépendances. Nous nous sommes intéressés à développer des algorithmes prenant en compte plusieurs applications qui demandent l'accès aux mêmes ressources de manière concurrente. Nous avons validé cette fonctionnalité avec des applications issues des projets du programme Décrython. Ces travaux ont nécessité un développement logiciel important, d'une part sur les applications du Décrypthon elles-mêmes et sur leur portage afin de rendre transparente leur utilisation sur la grille Décrypthon, mais aussi au niveau de l'intergiciel DIET et son écosystème : DIET_Webboard, VizDIET, GoDIET, LogService, MA_DAG, etc. Les résultats présentés ont été obtenus sur trois grilles mises à notre disposition: la grille universitaire du Décrypthon, la grille d'internautes (World Community Grid) et la grille expérimentale Grid'5000.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Aljr, Hasan. "Influence de la tranchée sur les chaussées en milieu urbain : Analyse des données d’une expérimentation à grande échelle". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10168/document.

Texto completo
Resumen
La tranchée constitue une cause majeure de dégradation des voiries urbaines. Elle influence considérablement la durée de service de ces voiries. Le présent travail vise à étudier à travers une expérimentation à grande échelle l’influence de la tranchée sur la chaussée. Il a été réalisé dans le cadre d’une collaboration entre la Métropole Européenne de Lille, le Laboratoire de Génie Civil et géo-Environnement et Eurovia. Il comporte quatre parties. La première comporte une synthèse bibliographique sur l’influence de la tranchée sur la structure de la chaussée et sa durée de service ainsi que sur son impact économique. La seconde partie concerne l’analyse du fonctionnement du système d’instrumentation qui a été utilisée pour le suivi du comportement de la chaussée et de la tranchée construites à l’entrée du campus de Lille1. La troisième partie consiste dans l’évaluation de l’état structurel de la chaussée et de la tranchée à l’aide des essais de déflexion. La dernière présente une analyse des réponses de la chaussée et de la tranchée sous l’effet du trafic et l’influence de la température sur ces réponses
The trench is a major cause of deterioration of urban pavements. It considerably reduces the service life of these pavements. The present work aims to study through a large-scale experimentation the influence of the trench on urban pavements. It has been conducted within a collaboration between Lille Metropolis, Civil and geo-Environmental Engineering laboratory and Eurovia. It includes 4 parts. The first part contains a literature review concerning the influence of the trench on urban pavements as well as its economic impact. The second part concerns the analysis of the performances of the instrumentation system used to monitor the behavior of the pavement and the trench built at the entrance of Lille1 campus. The third part consists in the analysis of structural behavior of the pavement and the trench using deflection tests. The last presents an analysis of the responses of the pavement and the trench under traffic and the influence of the temperature on these responses
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Analyse à grande échelle"

1

Concevoir à grande échelle. Paris]: Éditions B42, 2018.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Architecture et grande échelle: Du Massif central au Bosphore. Genève: Métis Presses, 2012.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

L'enjeu capital(es): Les métropoles de la grande échelle = Large-scale metropolises. Paris: Centre Pompidou, 2009.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Books, Time-Life, ed. Histoires de puces. Amsterdam: Editions Time-Life, 1989.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Johsua, Isaac. La grande crise du XXIe siècle: Une analyse marxiste. Paris: Découverte, 2009.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

La grande crise du XXIe siècle: Une analyse marxiste. Paris: Découverte, 2009.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Chwastowski, Janusz y Krzysztof Korcyl. Wybrane zagadnienia technologii obliczeń wielkiej skali: Selected topics on large scale computing = Sujets sélectionnés sur l'informatique a grande échelle. Kraków: Wydawnictwo PK, 2013.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Arts of VLSI circuit design: Symmetry approaches toward zero PVT sensitivity. [U.S.]: Xlibris Corporation, 2011.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Lowell, Kim. Nouvelle méthode pour estimer le volume local à partir de photographies à grande échelle et de données de terrain, projet #3054. Sainte-Foy, Qué: Service canadien des forêts, Région du Québec, 1997.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Zegout, Kamel. La presse quotidienne en Grande-Bretagne: Une analyse socio-historique de l'information médiatique. Paris: L'Harmattan, 2013.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Analyse à grande échelle"

1

Magliulo, Antonio. "Come fermare una grande recessione. Il dibattito sulla crisi economica del 1929 in Italia". En Studi e saggi, 19–41. Florence: Firenze University Press, 2021. http://dx.doi.org/10.36253/978-88-5518-455-7.01.

Texto completo
Resumen
The aim of this essay is to assess how the debate on the Great Depression of 1929 changed Italian economic culture in the transition from Fascism to the Republic. The essay is divided into three paragraphs. In the first, we will look at the international debate dominated by the dispute between Hayek and Keynes and by Röpke’s synthesis. In the second, we will analyse the debate in Italy, which is characterised by the convergent synthesis proposed by Bresciani Turroni, Einaudi and Fanno. The last section will outline the economic policy choices of the Fascist regime and the legacy of the debate on the great crisis in the period of post-war reconstruction
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

KRYSANDER, Mattias y Erik FRISK. "Analyse structurelle". En Diagnostic et commande à tolérance de fautes 1, 87–114. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch2.

Texto completo
Resumen
Ce chapitre explore les méthodes de conception de systèmes de diagnostic basés sur des modèles mathématiques. Il examine l'analyse des diagnostics de défauts des modèles, la complexité croissante avec le modèle, et l'approche structurale pour les problèmes non linéaires à grande échelle. L'analyse structurelle évalue la détectabilité et l'isolabilité des défauts, aidant à placer les capteurs et à concevoir des détecteurs. Des outils informatiques, notamment une Toolbox MATLAB et Python, sont disponibles pour faciliter cette analyse. La formalisation de la détection et de l'isolation des défauts est discutée, suivie d'une exploration des modèles structurels et des algorithmes graphiques pour l'analyse de diagnostic.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

GARZELLI, Andrea y Claudia ZOPPETTI. "Analyse multitemporelle d’images Sentinel-1/2 pour le suivi de l’utilisation des sols". En Détection de changements et analyse des séries temporelles d’images 1, 221–45. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch8.

Texto completo
Resumen
Les données SAR en bande C de Sentinel-1 et les images multispectrales de Sentinel-2 à courte période de revisite offrent un grand potentiel pour améliorer le suivi en continu d'activités à la surface de la Terre. Le suivi de changements à grande échelle exige une longue période d'observation - plusieurs mois à un an pour caractériser les transformations urbaines - et de fréquentes revisites pour assurer une résolution temporelle adéquate. Le volume de données qui en résulte est donc impressionnant et des données prétraitées, c.à.d. des images étalonnées, corrigées géométriquement, géocodées, sont nécessaires pour rendre le problème abordable en un temps raisonnable. Comparés aux instruments optiques, les capteurs SAR peuvent observer la surface de la Terre dans toutes les conditions météorologiques et peuvent fournir des informations utiles sur les zones urbaines, compte tenu de leur sensibilité aux caractéristiques géométriques des structures urbaines. Les attributs SAR forment le jeu de données pour la première étape de la chaîne de traitement proposée pour la détection multitemporelle de bâtiments. Les caractéristiques complémentaires des images multispectrales Sentinel-2 sur la même zone peuvent alors être exploitées pour estimer l'étendue de la transformation urbaine détectée précédemment par les capteurs SAR.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

HAUTIER, Yann y Fons VAN DER PLAS. "Biodiversité et stabilité des écosystèmes : analyses observationnelles". En Les conséquences écologiques et sociétales de la perte de biodiversité, 213–34. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9072.ch9.

Texto completo
Resumen
Comprendre si la biodiversité préserve le fonctionnement des écosystèmes contre les fluctuations environnementales dans les écosystèmes naturels à des échelles spatiales plus grandes est devenu un défi majeur pour l'écologie moderne. Les communautés naturelles peuvent différer des communautés expérimentales de manière importante. Néanmoins, conformément à la théorie et aux résultats expérimentaux, la biodiversité de plusieurs niveaux trophiques est généralement associée à une grande stabilité de la production de biomasse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Lallau, Benoît. "Investissements fonciers à grande échelle". En Dictionnaire critique de la RSE, 258–61. Presses universitaires du Septentrion, 2013. http://dx.doi.org/10.4000/books.septentrion.6641.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

"VI. La répétition à grande échelle". En Studia Artistarum, 193–213. Turnhout: Brepols Publishers, 2007. http://dx.doi.org/10.1484/m.sa-eb.4.00153.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

VAN BERKEL, Kees. "StaccatoLab, un modèle de calcul des flots de données à grande échelle". En Systèmes multiprocesseurs sur puce 2, 199–233. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch8.

Texto completo
Resumen
Le calcul parallèle à grande échelle consiste à organiser des millions d’opérations arithmétiques en parallèle, à chaque cycle d’horloge. Dans ce chapitre, StaccatoLab est présenté comme un langage qu’intègre un modèle d’exécution de flot de données conçu pour un parallélisme efficace à grande échelle. Il supporte l’analyse quantitative des programmes et permet leur conception pour des objectifs de débit prédéfinis.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Practical Action. "7. La quête d’inclusion à grande échelle". En Perspectives énergétiques des populations pauvres 2018, 55–64. Practical Action Publishing, 2018. http://dx.doi.org/10.3362/9781780447551.008.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Clus-Auby, Christine. "Chapitre VII. Organiser l’aménagement à grande échelle". En La gestion de l’érosion des côtes : l’exemple aquitain, 203–37. Presses Universitaires de Bordeaux, 2003. http://dx.doi.org/10.4000/books.pub.1200.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

BOUSQUET, LUC. "PROJETS À GRANDE ÉCHELLE: VERS DE NOUVELLES MÉDIATIONS." En Communication et grands projets, 33–44. Presses de l'Université du Québec, 2013. http://dx.doi.org/10.2307/j.ctv18pgnh3.7.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Analyse à grande échelle"

1

Daas, M. y K. Dada. "Le flux numérique en implantologie". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601016.

Texto completo
Resumen
L’optimisation du résultat esthétique et fonctionnel des restaurations implantaires, la simplification des procédures cliniques et de laboratoire et lamélioration de la prévisibilité des traitements sont les principaux objectifs de l’implantologie moderne. Cette prévisibilité est due en grande partie à l’intégration du flux numérique dans les différents étapes du traitement: analyse esthétique virtuel « Digital Smile Design », meilleure communication avec les patients, prise en compte des paramètres biologiques, esthétiques et fonctionnels, prise dempreinte optique, numérisation des modèles, planification implantaire 3D, chirurgie guidée, optimisation du profil démergence avec les piliers anatomiques personnalisés, mise en place d’une restauration implanto-portée se rapprochant le plus possible des dents naturelles absentes, en se fondant dans son environnement tout en respectant la notion de «Biomimétique». Cette démarche permet donc aujourdhui d’anticiper le résultat de nos traitements, devenus de plus en plus complexes, et d’assurer la pérennité de nos restaurations implantaires à long terme. Le but de notre intervention est de présenter l’intégration de ces nouvelles technologies dans notre pratique quotidienne, du cas simple au plus complexe.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Molina García, Erika Natalia. "Déversement du regard fluide. Esquisse d'une méthodologie pour approcher théoriquement le cinéma." En XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3090.

Texto completo
Resumen
Dans son ouvrage de 2010 (« Les images de l’eau dans le cinéma français des années 20 », Presses Universitaires de Rennes), Eric Thouvenel interroge la profusion des images de la liquidité dans une période bien précise du cinéma français, mais tout en l’interprétant comme un symptôme du temps ; non seulement d’une époque trouble, postérieure à la Grande Guerre, mais du temps lui-même. En effet, au début du XXème siècle, le développement des technologies cinématographiques s’accompagne d’une redécouverte de l’ensemble de la réalité comme liquide, et ainsi d’une remise de la question du dynamisme, de la temporalité et du mouvement, au centre des thématisations dans tous les domaines. Cette redécouverte opère dans le champ du social, de l’art, de la philosophie (notamment grâce à la pensée bergsonienne), et aussi de la science (avec la mécanique des fluides). On traverse ainsi un seuil. On engage un changement de paradigme symbolique, tout comme si depuis le XXème siècle on avait quitté un modèle tellurien pour nous donner à l’immersion d’un modèle aquatique. Ceci justifie suffisamment la démarche de Thounevel, voulant analyser les images aquatiques dans la France des années 20, d’un regard lui-même fluide (p.16), mais ceci justifie aussi à nos yeux un décryptage et une systématisation du dit regard.Nous proposons ainsi de décomposer ce regard fluide, notamment dans l’œuvre de Thounevel et de Gilles Deleuze (dans « Cinéma 1, Image-mouvement » et « Cinéma 2, Image-temps », Éditions de Minuit), visant la plus grande simplicité schématique, et tenter de l’appliquer au cinéma de Philippe Garrel, comme cas d’étude. L’œuvre de Garrel, se prêtant tout particulièrement à une analyse liquide, nous accordera ainsi, la convenance d’un exemple contemporain et la délimitation nécessaire à cette construction d’un cadre méthodologique pour les approches théoriques du cinéma à venir.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3090
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Magalhães Costa, Mariana. "JOGOS OLÍMPICOS E SUSTENTABILIDADE URBANA: PROJEÇÕES PARA PARIS 2024 Entre o marketing, a preservação ambiental e bem-estar social." En Seminario Internacional de Investigación en Urbanismo. Universitat Politècnica de Catalunya, Grup de Recerca en Urbanisme, 2024. http://dx.doi.org/10.5821/siiu.12663.

Texto completo
Resumen
Since the 1960 Rome Olympics, the urban transformations triggered by the Olympic Games have gained a greater proportion, leading to a questioning of its heritage. In 2014, the International Olympic Committee (IOC) released a document with 40 guidelines so that the bidding proposal became more aligned with the host city’s future development plan. In this context, Paris is preparing to host the 2024 Olympics, with a campaign strongly rooted in sustainability. Although the French capital already has a consolidated transport network and most of the sporting venues are already built, the sustainability narrative is questionable since it is a mega-event which generates huge carbon emissions. The aim of this paper is to analyse the Paris 2024 Olympic bid to understand the urban transformations provoked by the mega-event and how they might meet sustainability and urban resilience criteria. Keywords: mega-events, Olympics, Paris 2024, urban sustainability. Desde as olimpíadas de Roma, em 1960, as transformações urbanas desencadeadas pelos jogos ganharam maior importância e os seus legados passaram a ser questionados. Em 2014, o Comitê Olímpico Internacional (COI) lançou um documento com 40 diretrizes para que o projeto de candidatura fosse mais alinhado com os planos para o desenvolvimento futuro da cidade sede. Nesse contexto, Paris se prepara para receber as olimpíadas de 2024 com um discurso fortemente enraizado na sustentabilidade. Embora a capital francesa já conte com uma consolidada rede de transportes e grande parte dos equipamentos esportivos construídos, o discurso acerca da sustentabilidade é questionável pois se trata de um megaevento com gigantescas emissões de carbono. O objetivo desse trabalho é realizar uma análise sobre a candidatura olímpica de Paris 2024 para entender as transformações urbanas provocadas pelo megaevento e de que forma elas podem atender a critérios relacionados à sustentabilidade e à resiliência urbana. Palavras-chave: megaeventos, olimpíadas, Paris 2024, sustentabilidade urbana.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Sáinz Guerra, José Luis, Rosario del Caz Enjuto, Miguel Camino Solorzano, Felix Jové y Jonathan Orozco. "Análisis de los mecanismos que actúan en el desarrollo y transformación de las ciudades latinoamericanas y europeas de tamaño intermedio: estudio comparativo entre Manta, Ecuador y Valladolid, España". En Seminario Internacional de Investigación en Urbanismo. Barcelona: Instituto de Arte Americano. Universidad de Buenos Aires, 2013. http://dx.doi.org/10.5821/siiu.5872.

Texto completo
Resumen
Dos equipos de las universidades Laica Eloy Alfaro de Manabí, Ecuador, y de Valladolid, España están desarrollando una investigación conjunta con el apoyo financiero de la AECID. La investigación profundiza en el análisis de los mecanismos a través de los cuales las ciudades de tamaño intermedio en dos países, Ecuador y España, se transforman. Se realiza un análisis de ambas ciudades y las vías a través de las cuales se han ido formando, desmenuzando los procesos decisorios que materializan la ciudad. Tras estos análisis podemos señalar la diferente naturaleza de ambos espacios urbanos e identificar los mecanismos comunes y aquellos que son diferentes. En relación a la forma en la que se toman las decisiones se analizan en particular los siguientes apartados: a) La construcción de las grandes infraestructuras que ordenan el territorio b) Las políticas de vivienda. c) Las políticas de equipamientos públicos. d) La sostenibilidad en cada una de las ciudades. La utilidad del estudio es grande, pues la comparación de diversos elementos y características de ambas ciudades nos permite valorar el peso y el papel que juegan en la formación de cada ciudad. Two teams from the University Laica Eloy Alfaro de Manabí, Ecuador, and the University of Valladolid, Spain are developing a joint research project with the financial support of the AECID. This research work makes an in depth analysis of the mechanisms through which intermediate size cities in two different countries, Ecuador and Spain, are transformed. An analysis of both cities is carried out, including the ways in which they were formed, breaking down the decision-making processes that lead to the city as it is today. Following these analyses we can point out the different nature of both urban spaces and identify the common mechanisms and those that are different. As for the way in which decisions are made, we analyse in particular the following aspects: e) The construction of large infrastructures f) The housing policy. g) The public services and facilities policy. h) The sustainability of each of the cities. This study has a great utility as it compares diverse elements and characteristics of both cities and allows us to evaluate the weight and the role such characteristics play in the formation of each city.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Informes sobre el tema "Analyse à grande échelle"

1

Dufour, Quentin, David Pontille y Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, abril de 2021. http://dx.doi.org/10.52949/2.

Texto completo
Resumen
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gruber, Verena, Ingrid Peignier y Elinora Pentcheva. Analyse des motivations d’achat de camions légers au Québec. CIRANO, febrero de 2023. http://dx.doi.org/10.54932/kzyi1849.

Texto completo
Resumen
Le présent rapport s’inscrit dans la continuité d’une vaste étude débutée en 2020 afin de mieux comprendre la préférence croissante de la population canadienne pour les véhicules énergivores ainsi que les facteurs (politiques, économiques, sociaux, etc.) qui contribuent à l’augmentation des ventes de ce type de véhicules. Le CIRANO a déjà participé à cette étude en publiant deux rapports de projet en 2021 et ce nouveau rapport traite plus en détail de la situation au Québec, avec une attention particulière portée sur les habitudes d’utilisation des véhicules. Pour ce faire, une étude empirique a été menée auprès d’un échantillon représentatif de 1 020 Québécois(es) propriétaires d’un véhicule à l’aide d’un questionnaire en ligne administré en juillet 2022. L’enquête par questionnaire a fait ressortir quatre aspects majeurs qui influencent l’intention d’acheter un véhicule de type VUS : les caractéristiques du véhicule (comme l’importance accordée à une position de conduite élevée et à une transmission à quatre roues motrices), les aspects démographiques (comme le fait de vivre dans une région rurale et d’avoir un revenu familial plus élevé) et les facteurs psychologiques (comme l’importance des valeurs hédoniques et égoïstes). Mais c’est surtout la nature du véhicule principal qui est la variable qui se distingue avec le plus grand effet (β = 0,451) sur l’intention d’achat de VUS. Ainsi, conformément aux résultats de 2020, le facteur le plus important pour expliquer l’intention d’achat futur d’un VUS est la possession préalable d’un VUS. 67 % des propriétaires de VUS ont affirmé qu’il était extrêmement probable ou très probable qu’ils achètent un VUS comme prochain véhicule contre seulement 24 % des propriétaires de berline. Ces résultats renforcent la conclusion que le fait de posséder un VUS est le meilleur prédicteur d’une haute intention d’achat de VUS pour le prochain véhicule et souligne l’importance des interventions visant les premiers acheteurs et les premières acheteuses. Les résultats de l’enquête suggèrent également que la réduction de la possession de voiture parmi les propriétaires sera fortement difficile, puisque ceux-ci considèrent leur véhicule comme indispensable, et ce quel que soit le type de véhicule possédé, quoique les propriétaires de berlines soient néanmoins significativement les moins nombreux à considérer leur véhicule comme indispensable. Bien que les répondant(e)s considèrent généralement leur véhicule comme indispensable, ils ou elles ne l’utilisent guère au maximum de sa capacité, ni en ce qui concerne les sièges du véhicule ni en ce qui concerne l’espace de rangement. En moyenne, 35 % des répondant(e)s indiquent qu’au moins 3 places de leur véhicule sur 5 sont occupées au moins une fois par semaine. La plus grande part affirme toutefois que cela n’arrive que quelques fois par année (40,1 %), voire jamais pour 13,6 % des répondant(e)s. Les mêmes ordres de grandeur sont observés en ce qui concerne l’utilisation de l’espace de chargement. En revanche, les conducteur(trice)s de VUS sont significativement plus nombreux que les conducteur(trice)s de berline à utiliser fréquemment la majorité des sièges de l’habitacle ainsi que la pleine capacité du coffre. Pourtant, lorsque l’on contrôle pour d’autres variables sociodémographiques, le type de véhicule conduit n’est généralement pas un facteur explicatif de la fréquence d’utilisation de la pleine capacité de notre véhicule, que l’on parle de sièges ou du coffre, mais c’est plutôt le fait d’avoir des enfants qui est la variable avec le plus grand pouvoir explicatif.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Palmer, Jennifer y Diane Duclos. Considérations Clés : Surveillance à Base Communautaire dans le Domaine de la Santé Publique. Institute of Development Studies, junio de 2023. http://dx.doi.org/10.19088/sshap.2023.014.

Texto completo
Resumen
Les récentes épidémies et pandémies à grande échelle ont démontré l’importance d’engager les communautés en tant que partenaires pour prévenir, détecter et répondre aux situations d’urgence sanitaire. La surveillance à base communautaire (SBC), qui s’appuie sur les communautés pour communiquer des informations en matière de santé publique, peut constituer un élément essentiel pour la mise en œuvre d’interventions efficaces, inclusives et responsables dans les situations d’urgence humanitaire et de santé publique, ainsi que dans le cadre de la lutte à long terme contre les maladies. Cette note stratégique propose des considérations clés pour les programmes de SBC visant à orienter les décideurs, les autorités sanitaires, les organisations de la société civile, les agents de santé, les chercheurs, les défenseurs et d’autres personnes impliquées dans le domaine de la surveillance sanitaire. Elle est basée sur un examen rapide des recommandations en matière de SBC et des publications en sciences sociales. Elle a été rédigée par Jennifer Palmer et Diane Duclos (London School of Hygiene & Tropical Medicine, LSHTM) avec la contribution de Mariam Sharif (École des Hautes Études en Sciences Sociales, EHESS). Elle a été revue par Ruwan Ratnayake (LSHTM), Maysoon Dahab (LSHTM) et Luisa Enria (LSHTM). Cette note stratégique relève de la responsabilité de la Plateforme Social Science in Humanitarian Action (SSHAP).
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Jacob, Steve y Sébastien Brousseau. L’IA dans le secteur public : cas d’utilisation et enjeux éthiques. Observatoire international sur les impacts sociétaux de l'IA et du numérique, mayo de 2024. http://dx.doi.org/10.61737/fcxm4981.

Texto completo
Resumen
L’introduction de l’intelligence artificielle (IA) dans l’administration publique est en pleine expansion et représente la phase plus récente de la transformation numérique. L’utilisation de systèmes d’IA est souvent associée à l’amélioration de l’efficacité et de la productivité, car elle permet d’exécuter rapidement des tâches routinières, de réaliser des activités à une plus grande échelle et de rendre les services accessibles à un plus grand nombre de personnes. Cette technologie a donc le potentiel de transformer plusieurs aspects du travail administratif comme la prise de décision automatisée, l’analyse prédictive, le traitement de documents et l’interaction avec les citoyens. À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. Ce rapport a pour but de décrire des cas concrets d’utilisation de l’IA dans les organisations publiques de pays de l’OCDE. L’intention est d’enrichir la connaissance et la compréhension des potentialités de l’IA en présentant un éventail de systèmes aux capacités techniques variées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Marchildon, Allison, Claire Boine, Andréane Sabourin Laflamme, Dave Anctil, Antoine Boudreau LeBlanc, Sylvain Auclair, Christine Balagué et al. Un an après l’arrivée de ChatGPT: Réflexions de l’Obvia sur les enjeux et pistes d’action possibles face à l’IA générative. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, enero de 2024. http://dx.doi.org/10.61737/zkwz3721.

Texto completo
Resumen
Depuis l’automne 2022, avec l’arrivée abrupte de ChatGPT, la version gratuite du modèle de langage de l’entreprise OpenAI, les expérimentations à grande échelle du déploiement de ce système d’intelligence artificielle ont suscité un tsunami de réactions dont on perçoit les conséquences autant dans nos vies personnelles que professionnelles. En raison de l’ampleur des implications de cet événement, qui symbolise un changement hautement disruptif pour nos sociétés, il s’avérait incontournable qu’un groupe de chercheuses et de cherecheurs de l’Obvia s’y penche afin de contribuer à la réflexion sur le sujet et dégager des pistes d’action. Le but du présent document vise par conséquent à apporter des éléments de réflexion sur les différents enjeux que soulève l’émergence soudaine de ces technologies au potentiel révolutionnaire. Le présent document vise plus spécifiquement: • à situer dans son contexte le développement des applications d’IA générative; • à identifier ce qui nous semble être les principaux enjeux transversaux soulevés par l’arrivée de ces technologies dans nos vies et nos sociétés; • à esquisser quelques pistes d’action pour tenter de composer adéquatement avec ces enjeux. Ce document a été rédigé par une équipe multidisciplinaire de chercheuses et de chercheurs membres de l’Obvia. En effet, pour mener une réflexion sur une situation aussi large et complexe, il nous semblait essentiel de réunir des expertes et experts de plusieurs domaines, notamment en éthique appliquée, en neuropsychologie, en droit, en bioéthique et en philosophie. Les différentes thématiques qui émergent de cette réflexion ont été organisées comme suit, mais elles peuvent être découvertes dans l’ordre ou dans le désordre, selon les intérêts de la lectrice ou du lecteur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Biasca, Federico. La prise en charge des personnes converties à l’islam par les associations musulmanes en Suisse latine. Freiburg (Schweiz): Schweizerisches Zentrum für Islam und Gesellschaft (SZIG), Freiburg, 2024. http://dx.doi.org/10.51363/unifr.szigs.2024.011.

Texto completo
Resumen
La conversion à l’islam fait l’objet d’une attention scientifique et médiatique accrue en contexte européen, mais pour l’heure peu de recherches ont porté sur l’aspect institutionnel de ce phéno-mène. Cela est particulièrement vrai dans le contexte helvétique. Or face à la demande des per-sonnes converties, ou désireuses d’embrasser l’islam, les associations musulmanes en Suisse ont commencé à mettre en place des activités en leur direction. Cette étude, de nature exploratoire, porte sur ces dernières en mettant en lumière leurs formes et contenus. Elle analyse, en partant de la réalité de 15 associations musulmanes de Suisse romande et italienne, la prise en charge proposée par les référent·e·s des converti·e·s au sein de ces associations, appelés dans cette re-cherche les ‘agents de conversion’. Les entretiens effectués avec ces agents ainsi que d’autres res-ponsables musulmans fournissent la plus grande partie du matériel empirique de cette recherche, qui a été complété par un ensemble d’observations d’une partie des activités organisées en direc-tion des converti·e·s ainsi que par la récolte du matériel employé avec ces derniers par les associations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Savard, Annie, Alexandre Cavalcante y Daniela Caprioara. L’enseignement des mathématiques dans les écoles secondaires du Québec: L’alignement entre les enseignants, les concepts mathématiques des programmes ministériels et les concepts mathématiques utilisés dans les emplois STIM. CIRANO, 2022. http://dx.doi.org/10.54932/mldf5092.

Texto completo
Resumen
Ce rapport présente une étude portant sur les concepts et processus enseignés à l’école secondaire au Québec. Il étudie l’alignement entre les concepts enseignés et les concepts utilisés par des travailleurs de l’industrie STIM du Québec, l’alignement entre les motivations et les tensions des enseignants et les concepts mathématiques enseignés, ainsi que l’alignement entre l’épistémologie des enseignants de mathématiques du secondaire, les concepts mathématiques du programme de formation et les mathématiques utilisées par les travailleurs de l’industrie STIM. Dans un premier temps, nous avons fait une analyse des concepts et des processus mathématiques présents dans le programme de formation de l’école québécoise du secondaire, volet mathématique. Nous avons comparé cette analyse avec d’autres programmes de mathématiques. Nous avons étudié les métiers STIM représentés dans les manuels scolaires québécois. Dans un deuxième temps, nous avons interrogé des travailleurs STIM quant aux concepts mathématiques employés dans le cadre de leur travail. Nous avons comparé ces concepts mathématiques à ceux présents dans le Programme de formation de l’école québécoise. Dans un troisième temps, nous avons interrogé des enseignants de mathématiques du secondaire quant à leurs représentations des concepts mathématiques du programme. Nous leur avons fait parvenir un questionnaire et nous avons réalisé des groupes de discussion. Nous avons comparé leurs représentations de ces concepts mathématiques à ceux présents dans le Programme de formation de l’école québécoise. Nos résultats suggèrent que certains concepts mathématiques sont beaucoup utilisés par les travailleurs STIM, mais sont peu enseignés au secondaire. C’est le cas des statistiques qui sont principalement enseignées aux élèves du volet Culture Société Technique, volet qui ne conduit pas à se qualifier dans les programmes STIM du cégep et de l’université. Qui plus est, une grande proportion des enseignants rencontrés disent ne pas apprécier les statistiques. Ces résultats montrent un désalignement important qui pourrait conduire les élèves à une vision tronquée des mathématiques utilisées dans les carrières STIM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Bolton, Laura y James Georgalakis. Les répercussions socioéconomiques de la Covid-19 dans les pays à revenu faible ou intermédiaire. Institute of Development Studies, octubre de 2022. http://dx.doi.org/10.19088/core.2022.012.

Texto completo
Resumen
Le présent rapport fournit un aperçu des recherches menées et publiées par les membres du programme CORE soutenu par le CRDI. Il présente les principaux thèmes abordés par la recherche en ce qui concerne les répercussions de la Covid-19 sur les industries, les secteurs et les groupes socioéconomiques en Afrique, au Moyen-Orient, en Asie du Sud et du Sud-Est et en Amérique latine. Cela comprend des descriptions de la manière dont la pandémie a affecté la vie de personnes issues de communautés marginalisées et exclues, et l’efficacité des réponses stratégiques à la pandémie. Une grande partie des enseignements découlant de cette recherche continue présente des implications sur la riposte contre la pandémie au sein de différents contextes, sur le renforcement de la résilience face aux chocs futurs et sur les défis inhérents à la recherche appliquée en situation d’urgence sanitaire mondiale. Compte tenu de la répartition diversifiée des 21 projets rapidement mobilisés par le CRDI dans 42 pays au cours des premiers stades de la pandémie, cette synthèse des conclusions est, par définition, beaucoup plus axée sur certaines régions et zones géographiques que d’autres ; elle ne prétend aucunement fournir une analyse complète des répercussions socioéconomiques de la Covid-19. Néanmoins, elle contribue à fournir des connaissances importantes pour les chercheurs, les acteurs politiques et les spécialistes qui cherchent à reconstruire en mieux dans le contexte d’une urgence sanitaire mondiale sans précédent.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Marsden, Eric. Partage des modèles de sécurité entre donneurs d’ordres et entreprises intervenantes. Fondation pour une culture de sécurité industrielle, diciembre de 2018. http://dx.doi.org/10.57071/360upb.

Texto completo
Resumen
Ce document s’intéresse à la sécurité des activités industrielles dans lesquelles une part importante du travail est externalisée ou sous-traitée. Ces activités impliquent une collaboration entre de nombreuses entreprises, dont l’entreprise utilisatrice (dite aussi donneur d’ordres) et un ensemble d’entreprises intervenantes. Les relations entre entreprises utilisatrices et intervenantes sont très variables, certaines pouvant être proches de la mise à disposition de main d’œuvre, où les règles de sécurité, la formation aux risques et l’évaluation des risques des activités sont principalement déterminées par l’entreprise utilisatrice, selon son référentiel interne; et d’autres où l’expertise ainsi que la connaissance des risques des opérations conduites et des méthodes de travail sûres sont plus développées chez l’entreprise intervenante que chez l’entreprise utilisatrice. La sécurité ne peut être décrétée depuis le siège d'une grande entreprise, mais doit être co-construite par l'ensemble des acteurs: concepteurs des installations, rédacteurs des modes opératoires et du référentiel de sécurité, personnes préparant et planifiant les interventions, et personnes intervenant sur le terrain. La définition et la mise en œuvre passent donc d’une organisation verticale avec un donneur d’ordres à la tête, vers une organisation plus horizontale entre partenaires. Cette organisation nécessite une bonne coordination entre les acteurs, dans le cadre d'une relation partenariale. Ce document analyse différentes modalités de cette coordination entre les acteurs et leurs effets sur la sécurité. Il identifie un certain nombre de points posant problème dans la relation entre les entreprises utilisatrices et intervenantes, en particulier dans le domaine de la maintenance et les travaux neufs, et suggère un certain nombre de bonnes pratiques pour améliorer le partenariat et donner du sens à la notion de co-construction de la sécurité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Fontecave, Marc y Candel Sébastien. Quelles perspectives énergétiques pour la biomasse ? Académie des sciences, enero de 2024. http://dx.doi.org/10.62686/1.

Texto completo
Resumen
Le débat public concernant l’avenir du mix énergétique français à l’horizon 2050 a longtemps été réduit à la seule considération de son volet électrique, dans une opposition entre énergie nucléaire et énergies renouvelables (EnR). Pourtant, la part non-électrique de notre consommation énergétique constitue clairement aujourd’hui un des principaux défis de la transition climatique et énergétique. Actuellement issue du pétrole, du gaz et du charbon, elle constitue l’angle mort des divers scénarios énergétiques disponibles, alors qu’elle restera encore indispensable, notamment dans le secteur de la mobilité et de la production de chaleur. Le Comité de prospective en énergie (CPE) de l’Académie des sciences examine ici les ressources énergétiques et carbonées pouvant être tirées de la biomasse, qui présente des atouts certains en permettant le stockage de l’énergie sous forme de biogaz ou de biocarburants, et les perspectives raisonnables offertes par celles-ci dans le mix énergétique national à l’horizon 2050. Le présent rapport se focalise sur les aspects scientifiques et technologiques, sans occulter certaines considérations environnementales, économiques, sociales, et de souveraineté nationale, abordés à la lumière de la littérature disponible et de l’audition d’experts des divers domaines considérés. Après avoir défini la notion de biomasse dans sa diversité, le rapport décrit les différentes bioénergies possibles et leurs limites. Les utilisations actuelles de la biomasse en France sont évaluées et comparées aux perspectives envisagées à l’horizon 2050 au regard du potentiel réellement mobilisable, pour lequel il existe une grande variation dans les estimations proposées, et des technologies nécessaires à sa transformation, qui restent, pour la plupart, coûteuses et de faible maturité. Ainsi, cette analyse montre notamment que le besoin d’énergie non-électrique, tel qu’il est défini dans le scénario de référence fourni par Réseau de transport d’électricité (RTE), sera difficile – pour ne pas dire impossible - à atteindre avec la seule biomasse produite en France : le bouclage énergétique 2050 passera nécessairement par un maintien d’importations de gaz naturel et par de nouvelles importations de biomasse et/ou de bioénergie introduisant des dépendances nouvelles et exportant les risques associés à leur utilisation massive. Le rapport rappelle que la bioénergie reste l’énergie la moins favorable en termes d’empreinte spatiale et que la biomasse a, sur toute la chaîne des valeurs, un faible retour énergétique. Sa plus grande mobilisation, qui ne devra pas se faire au détriment de la sécurité alimentaire humaine et animale, ni au détriment des éco-services rendus par la biosphère, aura des impacts environnementaux certains qu’il faudrait estimer avec rigueur. Enfin, le remplacement de la pétrochimie industrielle par une nouvelle « carbochimie biosourcée » va nécessiter des efforts considérables d’adaptation des procédés et de recherche et développement dans le domaine de la catalyse, de la chimie de synthèse et des biotechnologies. Ces conclusions conduisent le CPE à formuler des recommandations concernant : 1.La nécessaire amélioration de la concertation entre les divers organismes et agences pour aboutir à une estimation rigoureuse et convergente des ressources potentielles, 2.La réalisation de bilans carbone des diverses filières et d’analyses en termes de retour énergétique des investissements envisagés, pour s’assurer de la soutenabilité et du gain en carbone qui ne sont pas acquis pour le moment, 3.Le soutien au déploiement de la recherche et développement des filières de biocarburants de seconde génération pour accroitre leur maturité industrielle, 4.La poursuite du développement d’une chimie organique de synthèse biosourcée, 5.La priorité à établir dans l’utilisation de la biomasse pour les usages qui ne pourront être décarbonés par l’électricité, passant par une politique publique permettant de résoudre les conflits d’usages, 6.La nécessité de concertation des politiques énergétique et agroalimentaire de notre pays.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía