Literatura académica sobre el tema "Modèle en deux étapes"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Modèle en deux étapes".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Modèle en deux étapes"

1

Fisher, Gordon. "Une condition d’invariance du modèle de régression à coefficients aléatoires". Articles 80, n.º 2-3 (24 de octubre de 2005): 405–19. http://dx.doi.org/10.7202/011393ar.

Texto completo
Resumen
Résumé Cet article développe une condition d’invariance du modèle de régression à coefficients aléatoires (RCA) et de cette façon permet : (i) d’étendre les résultats de Rao (1963, 1967)”; (ii) de fournir une nouvelle démonstration de l’égalité des estimateurs des moindres carrés généralisés directs et ceux en deux étapes du modèle RCA”; et (iii) de rectifier une proposition de McAleer (1992) pour les modèles mixtes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Loumagne, C., J. J. Vidal, C. Feliu, J. P. Torterotot y P. A. Roche. "Procédures de décision multimodèle pour une prévision des crues en temps réel: Application au bassin supérieur de la Garonne". Revue des sciences de l'eau 8, n.º 4 (12 de abril de 2005): 539–61. http://dx.doi.org/10.7202/705237ar.

Texto completo
Resumen
Cet article décrit une procédure de décision destinée à la prévision des crues en temps réel. La méthode proposée permet de combiner les résultats de différents modèles avec une pondération adaptée aux conditions de fonctionnement du système de prévision. Chaque modèle a lors du calage des performances qui lui sont propres ainsi qu'une sensibilité particulière aux différentes perturbations. Les résultats de ces modèfles étant corrélés, la décision optimale est par conséquence une combinaison linéaire de la décision qui peut être prise dans chaque état du système pondérée par la probabilité de se trouver dans une configuration donnée. Dans le cadre d'un système de prévision exploitant le résultat de plusieurs modèles, la procédure se décompose en deux étapes. Pendant la première étape, après analyse de l'ensemble des informations collectées on détermine les états possibles du système. La deuxième étape établit une prévision en calculant des poids optimaux accordés à chaque modèle en fonction des différentes configurations du système. Un tel système de décision nécessite une étude complète afin de décrire et modéliser toutes les perturbations et situations hydrologiques possibles. Une procédure simplifiée a donc été développée identifiant seulement deux états du système : le premier où tout fonctionne correctement et le deuxième déterminé à partir des derniers pas de temps connus. Comparativement à des méthodes de changement de modèles, cette méthode simplifiée a montré sur la Vézère de meilleurs résultats. L'intérêt de cette approche est confirmé même dans le cas où des erreurs accidentelles interviennent en temps réel. On présente les performances de cette procédure, observées depuis son implantation sur le système d'annonce de crues du bassin supérieur de la Garonne.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Aknouche, Abdelhakim y Hafida Guerbyenne. "Algorithme RLS en deux étapes pour l'estimation d'un modèle ARCH". Comptes Rendus Mathematique 343, n.º 8 (octubre de 2006): 535–40. http://dx.doi.org/10.1016/j.crma.2006.09.004.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Dufour, Jean-Marie y Malika Neifar. "Méthodes d’inférence exactes pour un modèle de régression avec erreurs AR(2) gaussiennes". Articles 80, n.º 4 (26 de enero de 2006): 593–618. http://dx.doi.org/10.7202/012129ar.

Texto completo
Resumen
Résumé Ce texte propose des méthodes d’inférence exactes (tests et régions de confiance) sur des modèles de régression linéaires avec erreurs autocorrélées suivant un processus autorégressif d’ordre deux [AR(2)], qui peut être non stationnaire. L’approche proposée est une généralisation de celle décrite dans Dufour (1990) pour un modèle de régression avec erreurs AR(1) et comporte trois étapes. Premièrement, on construit une région de confiance exacte pour le vecteur des coefficients du processus autorégressif (φ). Cette région est obtenue par inversion de tests d’indépendance des erreurs sur une forme transformée du modèle contre des alternatives de dépendance aux délais un et deux. Deuxièmement, en exploitant la dualité entre tests et régions de confiance (inversion de tests), on détermine une région de confiance conjointe pour le vecteur φ et un vecteur d’intérêt γ de combinaisons linéaires des coefficients de régression du modèle. Troisièmement, par une méthode de projection, on obtient des intervalles de confiance « marginaux » ainsi que des tests à bornes exacts pour les composantes de γ. Ces méthodes sont appliquées à des modèles du stock de monnaie (M2) et du niveau des prix (indice implicite du PNB) américains.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Gaudet, Jeanne d’Arc. "Un modèle de design pédagogique innovateur". Articles et notes de recherche 11, n.º 1 (12 de abril de 2005): 187–210. http://dx.doi.org/10.7202/057973ar.

Texto completo
Resumen
Dans cet article, l'auteure décrit les résultats partiels d'une étude du type quasi expérimental effectuée dans le cadre de sa thèse doctorale. L'une des hypothèses de recherche est la suivante : la moyenne des résultats aux post-tests (étapes et produits) du groupe ayant été formé selon le modèle de design pédagogique modifié sera significativement plus élevée que celle des résultats aux post-tests du groupe ayant été formé à partir du modèle de design pédagogique non modifié. Pour vérifier l'hypothèse, les travaux pratiques exécutés à l'intérieur de deux cours de formation auprès de deux groupes (témoin et expérimental) ont été analysés et les résultats démontrent que, lorsqu'on propose des modifications au modèle de design pédagogique pour répondre aux besoins et aux préoccupations des femmes travaillant dans les secteurs traditionnellement masculins, un bon nombre de personnes en tiennent compte dans la conception de systèmes d'apprentissage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Bigras, Yvon y Sang Nguyen. "Un modèle des flux interrégionaux de marchandises au Canada". Articles 63, n.º 1 (27 de enero de 2009): 26–42. http://dx.doi.org/10.7202/601399ar.

Texto completo
Resumen
Résumé Dans cet article, nous présentons un modèle des flux de marchandises entre huit régions du Canada, et pour l’ensemble des biens qui ont été regroupés en 64 catégories. Le modèle fonctionne en deux étapes. Dans un premier temps, les flux observés sont régressés sur certaines variables socio-économiques, dont le coût de transport. On obtient alors des flux « a priori », qui peuvent être modifiés lorsque les variables les expliquant sont elles-mêmes modifiées. Or, ces flux « a priori » ne respectent pas nécessairement la structure industrielle de chaque région. Pour les corriger, on résout un programme mathématique dont la fonction objectif est basée sur la théorie de l’information. On cherche alors les flux qui sont les plus proches possibles des flux « a priori », mais qui respectent également la structure industrielle de chaque région. Cette structure est représentée par des contraintes comptables input-output régionales. Le modèle peut être vu comme un modèle input-output interrégional, où les coefficients interrégionaux sont sensibles à des variations des coûts de transport. La formulation du modèle est également beaucoup plus souple et elle permet de prendre en compte d’autres facteurs explicatifs. Le modèle est testé avec des données input-output canadiennes de 1974, et il est aussi comparé à d’autres modèles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Lachapelle, Guy. "Le comportement politique des Québécoises lors de la campagne référendaire de 1995 : une application de la théorie du dépistage". Articles 17, n.º 1-2 (19 de noviembre de 2008): 91–120. http://dx.doi.org/10.7202/040101ar.

Texto completo
Resumen
Résumé L’hypothèse centrale est que les femmes sont plus sensibles que les hommes à certains messages des gouvernements et que les deux groupes entretiennent des rapports différents avec l’État. Dans le contexte du référendum québécois de 1995, cette hypothèse a été soumise à un modèle d’analyse socioculturel de la dynamique électorale, la théorie du dépistage. Celle-ci retrace le processus cognitif par lequel les électeurs arrivent à déterminer leurs intentions de vote après des étapes d’observation, d’évaluation, de discussion et de décision. Dans le cas précis de l’appui partisan des Québécoises entre 1994 et 1995, le modèle permet de mieux comprendre pourquoi les femmes francophones ont légèrement favorisé le camp du OUI à la fin de la campagne référendaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Pichon, Pénélope y Anaïs Cavaré. "Perspectives d’application du flux numérique au collage indirect". Revue d'Orthopédie Dento-Faciale 53, n.º 3 (septiembre de 2019): 233–47. http://dx.doi.org/10.1051/odf/2019022.

Texto completo
Resumen
Deux techniques de collage des attaches orthodontiques coexistent, le positionnement direct en bouche et le positionnement indirect sur un modèle puis le transfert sur le patient par l’utilisation de clés ou de gouttières. Si le collage indirect est aujourd’hui le plus employé en orthodontie linguale, la technique directe reste majoritaire en vestibulaire. Une nouvelle technique utilisant la CFAO permet de digitaliser les étapes du collage indirect, notamment le positionnement des attaches sur les moulages numériques et donc de faciliter le collage en gagnant en précision, en rapidité et en efficience.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Calvet, Jean-Christophe y Jean-Louis Champeaux. "L'apport de la télédétection spatiale à la modélisation des surfaces continentales". La Météorologie, n.º 108 (2020): 052. http://dx.doi.org/10.37053/lameteorologie-2020-0016.

Texto completo
Resumen
Cet article présente les différentes étapes des développements réalisés au CNRM des années 1990 à nos jours pour spatialiser à diverses échelles les simulations du modèle Isba des surfaces terrestres. Une attention particulière est portée sur l'intégration, dans le modèle, de données satellitaires permettant de caractériser la végétation. Deux façons complémentaires d'introduire de l'information géographique dans Isba sont présentées : cartographie de paramètres statiques et intégration au fil de l'eau dans le modèle de variables observables depuis l'espace. This paper presents successive steps in developments made at CNRM from the 1990s to the present-day in order to spatialize the simulations of the Isba land surface model at various scales. The focus is on the integration in the model of satellite data informative about vegetation. Two complementary ways to integrate geographic information in Isba are presented: mapping of static model parameters and sequential assimilation of variables observable from space.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Juillard, Michel. "Régimes de croissance pour les Etats-Unis, 1890-1991." Revue économique 46, n.º 3 (1 de mayo de 1995): 847–56. http://dx.doi.org/10.3917/reco.p1995.46n3.0847.

Texto completo
Resumen
Résumé L'article étudie l'existence de différents régimes de croissance pour l'écono­mie des États-Unis depuis 1890. Trois modèles sont envisagés : un modèle de type Solow à progrès technique déterministe, un modèle AK, et un modèle à pro­grès technique stochastique. L'auteur montre que ces trois modèles peuvent être présentés comme différentes restrictions sur les paramètres d'un modèle à cor­rection d'erreurs. L'estimation de ce dernier et des relations de cointégration cor­respondantes donne la préférence au modèle à progrès technique stochastique, mais on conclut à l'existence de deux régimes différents : l'un avant 1929, l'autre après 1951.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Modèle en deux étapes"

1

Canon, Eric. "Etude mathématique de deux modèles de colonne à distiller : modèle discret à étages théoriques, modèle continu hyperbolique". Saint-Etienne, 1990. http://www.theses.fr/1990STET4004.

Texto completo
Resumen
On traite de la modélisation de colonne à distiller en régime transitoire, caractérisées par des conditions limites difficiles. Deux modèles complémentaires sont étudiés. Le premier est un modèle très simple à base d'équations algébriques et différentielles. Un théorème d'existence est obtenu. Un logiciel de simulation extrêmement rapide et performant en est tiré. Le second modèle est de nature hyperbolique. On résout complètement le problème de Riemann. Un théorème d'existence globale pour le problème de Cauchy est obtenu. On étudie les problèmes posés par la discrétisation des conditions limites. On réinterprète l'ancien modèle différentiel dans le cadre de ce modèle hyperbolique. Le premier modèle algébrique apparait comme modèle approche du cas limite, lorsque la CFL tend vers l'infini, où le modèle hyperbolique devient irrésoluble
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Chabaane, Amna. "Étapes précoces de la lymphopoïèse humaine". Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLP027.

Texto completo
Resumen
La lymphopoïèse humaine reste mal caractérisée comparativement à son homologue murin. Ceci est dû à l’absence de modèles expérimentaux adéquats et aux difficultés d’accès aux prélèvements primaires de moelle osseuse humaine. Grâce à la caractérisation fine des populations de progéniteurs et précurseurs lymphoïdes présentes dans la moelle osseuse d’animaux greffés, nous avons récemment démontré que la lymphopoïèse humaine suit des voies CD127- ou CD127+ indépendantes qui génèrent une descendance lymphoïde commune et spécifique. Dans cette étude, nous avons mis au point un nouveau test de diversification ex vivo pour analyser leurs relations développementales et étudier les mécanismes qui favorisent l’émergence des progéniteurs lymphoïdes précoces (ELP) CD127- ou CD127+ à partir de leurs ancêtres lympho-mono-dendritiques (LMDP) communs. Les analyses cinétiques montrent que les ELP CD127- ou CD127+ émergent de manière séquentielle des LMDP "précoces" par rapport aux LMDP "tardifs". Le criblage fonctionnel d’une série de 30 récepteur/ligand montre en outre que les ELP CD127- ou CD127+ sont soumis à une régulation différentielle. Alors que les signaux Flt3L, IL27 et Notch1 bloquent l’émergence des ELP CD127+ et polarisent la différenciation lymphoïde vers la voie exclusive CD127-, l’émergence des ELP CD127+ est au contraire favorisée par des conditions de limitation cytokinique et de faibles taux d’expansion cellulaire. Ces résultats indiquent que les ELP CD127- et CD127+ sont soumises à des mécanismes de régulation distincts, selon qu’ils soient extrinsèques ou intrinsèques aux cellules, renforçant ainsi l’architecture dichotomique de la lymphopoïèse humaine proposée précédemment. Ces résultats plaident également en faveur d’une régulation multicouche de la différenciation lympho-myéloïde, remettant en question le modèle continu émergeant de l’hématopoïèse
Human lymphopoiesis remains poorly characterized compared to its murine counterpart. This is due to the lack of adequate experimental models and difficulties in accessing primary bone marrow samples. Thanks to the fine characterization of the populations of lymphoid progenitors and precursors in the bone marrow of transplanted mice, we have recently demonstrated that human lymphopoiesis proceeds along independent CD127- or CD127+ pathways that generate both common and specific lymphoid subsets. In this report, we developed a novel ex vivo diversification assay to analyze their developmental relationships and investigate the mechanisms driving the emergence of the CD127- or CD127+ early lymphoid progenitors (ELPs) from their common lympho-mono-dendritic (LMDP) ancestors. Time-course analyses show that CD127- or CD127+ ELPs emerge sequentially from “early” versus “late” LMDPs. Functional screening of a series of 30 receptor/ligand pairs show in addition that the CD127- or CD127+ ELPs are subjected to a differential regulation. Whereas Flt3L, IL-27 and Notch1 signaling impose a veto on CD127+ ELP emergence and polarize lymphoid differentiation toward exclusive CD127- pathway, the emergence of the CD127+ ELPs is instead favored by limiting cytokine conditions and low cell expansion rates. These new findings indicate that CD127- and CD127+ ELPs are subjected to distinct cell-extrinsic versus cell-intrinsic regulatory mechanisms thereby reinforcing the previously proposed dichotomous architecture of human lymphopoiesis. In as much as they also argue for multi-layered regulation of lympho-myeloid differentiation, our new results challenge the emerging continuous model of hematopoiesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Millet, Jean-Baptiste. "Modélisation réduite de la combustion homogène Diesel : développement d'un modèle zéro-dimensionnel de combustion HCCI avec cinétique chimique réduite". Paris 6, 2006. http://www.theses.fr/2006PA066500.

Texto completo
Resumen
La modélisation sur une plage de paramètres initiaux la plus exhaustive de la combustion HCCI à l’aide de modèles offrant des temps de calculs réduits est nécessaire afin de limiter le nombre d’essais expérimentaux coûteux en temps et très onéreux. L’objectif de cette étude est de fournir un modèle physiquement simple de la combustion HCCI dans l’optique de l’optimisation et du contrôle moteur. Ce travail propose un modèle basé sur les observations physiques de la combustion et affranchi de mécanisme chimique. Le modèle proposé reproduit l’évolution de la fraction massique de carburant consommée et de la température. Il est piloté par un taux de réaction global Ω(T) qui décrit la consommation du carburant et l’évolution du dégagement d’énergie. La fonction Ω(T) se décompose en deux fonctions décrivant respectivement la dynamique plus lente caractéristique de la flamme froide et celle plus rapide de l’inflammation principale, ainsi que la transition entre ces deux phases. Ces fonctions ont été calibrées à l’aide du mécanisme de cinétique chimique réduit développé précédemment. Une relation pour le délai d’inflammation en fonction des conditions initiales du point de fonctionnement a été proposée. De même, des relations entre le taux de dégagement d’énergie de la flamme froide et de l’inflammation principale ont été établies, prenant en compte le phasing entre ces deux phases d’oxydation. Les résultats montrent que ce type de modèle peut décrire précisément les délais d’inflammation liés à la combustion HCCI (flamme froide et combustion principale), ainsi que les taux de dégagement d’énergie des deux phases, avec des temps de calcul très réduit. Le modèle proposé a été comparé à un modèle comprenant un mécanisme de cinétique chimique réduit et des essais expérimentaux provenant d’un moteur Renault. Dans les deux cas, les comparaisons ont montré que les résultats donnés par le modèle étaient tout à fait pertinents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Zhao, Zhejin. "Three essays on housing markets and housing policies". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES033/document.

Texto completo
Resumen
Cette thèse contient trois essais empiriques sur les marchés du logement et les politiques de logement. Dans le premier essai, nous étudions les effets du contrôle des loyers sur les loyers en utilisant des données historiques de panel sur une période de 78 ans à Lyon. Nous utilisons des régressions multiples avec des effets fixes comme principale forme d’analyse. Nos résultats montrent que l’effet causal du contrôle des loyers sur les loyers à Lyon est significativement négatif. Dans le deuxième essai, j’étudie l’influence de l’âge du chef de famille sur la demande de logements grâce à des données sur les ménages en Chine. Le modèle de prix hédonique en deux étapes, utilisé dans cet essai, me permet d’estimer l’effet de l’âge du chef de famille sur la demande de logements, en contrôlant la qualité du logement et les caractéristiques des autres ménages. Les résultats montrent que la disposition à payer, à qualité constante de la maison, diminue légèrement ou reste constante lorsque le chef de famille vieillit, une fois contrôlé le niveau d’instruction du chef de famille. En revanche, il diminue rapidement si le niveau d’instruction du chef de famille n’est pas contrôlé. Par conséquent, cet essai conclut que la demande totale de logements ne devrait pas diminuer avec le vieillissement de la population, parce que la génération actuelle est plus éduquée que la précédente. Enfin, dans le troisième essai, dans le cadre du modèle de Rosen-Roback, j’analyse l’impact des coûts du logement sur le ratio d’intensité des compétences (SIR), dans différentes villes chinoises. Pour éviter les problèmes d’endogénéité, j’utilise à la fois la part des terrains non disponibles et les prix des logements historiques comme instruments des prix actuels du logement. Les résultats montrent que les prix moyens des logements ont des effets positifs significatifs sur le SIR en 2010 lorsque la mobilité des travailleurs est assouplie, mais que les effets sont non significatifs sur le SIR en 2000 lorsque la mobilité des travailleurs était étroitement réglementée
This thesis contains three empirical essays on housing markets and housing policies. In the first essay, we investigate the effects of rent control on rents using historical panel data in Lyon over a 78-year period. We use multiple regressions with fixed effects as the main form of analysis. Our results show that the causal effect of rent control on rents in Lyon is significantly negative. In the second essay, I study how age influences housing demand based on household level data from China. The two-stage hedonic house price model used in this essay allows me to estimate the pure age effect on housing demand, after housing quality and other household’s characteristics are controlled for. The results demonstrate that the willingness-to-pay for a constant-quality house will decrease slightly or keep constant when a representative household head becomes old, if the household head’s educational attainment is controlled for. In contrast, it will drop rapidly if the household head’s educational attainment is not controlled for. Therefore, this essay concludes that the total housing demand will not decrease with population aging, because the current middle- aged generation get educated more than the current old generation. Finally, in the third essay, in the framework of Rosen-Roback model, I analyze how housing costs affect the ratio of high-skilled to low-skilled workers, explicitly the skill intensity ratio (SIR), across cities in China. To avoid endogeneity issues, I use both share of unavailable land and historical housing prices as instruments of current housing prices. The results show that average housing prices have significant positive effects on the SIR in 2010 when workers’ mobility is relaxed, but insignificant effects on the SIR in 2000 when workers’ mobility was tightly regulated
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Cadot, Christine. "Les deux Atlantiques : Europe-Amérique, la découverte de deux mondes et son influence sur la perception française du modèle fédératif américain". Paris 8, 2005. http://www.theses.fr/2005PA083707.

Texto completo
Resumen
Cette recherche établit que c'est dans les rhétoriques nationalistes américaines et française que s'élaborent les catégories d'"Amérique" et d'"Europe", lesquelles jouent un rôle de miroir déformant dans la représentation française du fédéralisme. Cette recherche sera exposée en trois temps : la notion de "découverte", dont nous soulignons la dimension artificielle et la capacité naturalisante, nous permet de préciser tout d'abord le caractère construit de la catégorie de "monde américain" et, en miroir, de "monde européen". Nous en appliquerons ensuite le filtre à une catégorie particulière, le républicanisme américain, et enfin à une de ses modalités, le fédéralisme. L'espace temporel de cette recherche est circonscrit à certaines périodes de crise dont l'enjeu est la constitution d'une identité nationale. Il est apparu pertinent d'illustrer ces moments critiques par trois périodes exemplaires : les temps révolutionnaires, les périodes jacksonienne et de la Guerre civile américaine
The main statement of this research is that Europe and America as political categories have their roots in a nationalistic rhetoric, both in France and in the United States. These categories act like a distorting mirror in French perceptions of American federalism. This research encompasses three main themes. First, we define the notion of "discovery" in pointing out its political presupposition, which represents and shapes both Europe and America as naturalized worlds. Second, we apply this distorting mirror to the special case of American republicanism and third, to one of its modalities - federalism. This research was conducted at some specific times of nationhood crisis, both in France and in the United States. We will particularly deal with the rhetorical use of a supposed ontological break between Europe and America in revolutionary times, as well as in the Jacksonian and Civil War eras
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Garrido, Carpio Fernando José. "Planification locale de trajectoires à deux étapes basée sur l’interpolation des courbes optimales pré-planifiées pour une conduite humaine en milieu urbain". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM065/document.

Texto completo
Resumen
Les systèmes de transport intelligents (STI) sont conçus pour améliorer les transports, réduire les accidents, le temps de transport et la consommation de carburant, tout en augmentant la sécurité, le confort et l'efficacité de conduite. L'objectif final de ITS est de développer ADAS pour faciliter les tâches de conduite, jusqu'au développement du véhicule entièrement automatisé. Les systèmes actuels ne sont pas assez robustes pour atteindre un niveau entièrement automatisé à court terme. Les environnements urbains posent un défi particulier, car le dynamisme de la scène oblige les algorithmes de navigation à réagir en temps réel aux éventuels changements, tout en respectant les règles de circulation et en évitant les collisions avec les autres usagers de la route. Sur cette base, cette thèse propose une approche de la planification locale en deux étapes pour apporter une solution au problème de la navigation en milieu urbain. Premièrement, les informations statiques des contraintes de la route et du véhicule sont considérées comme générant la courbe optimale pour chaque configuration de virage réalisable, où plusieurs bases de données sont générées en tenant compte de la position différente du véhicule aux points de début et de fin des courbes, permettant ainsi une analyse réaliste. planificateur de temps pour analyser les changements de concavité en utilisant toute la largeur de la voie. Ensuite, la configuration réelle de la route est envisagée dans le processus en temps réel, où la distance disponible et la netteté des virages à venir et consécutifs sont étudiées pour fournir un style de conduite à la manière humaine optimisant deux courbes simultanément, offrant ainsi un horizon de planification étendu. Par conséquent, le processus de planification en temps réel recherche le point de jonction optimal entre les courbes. Les critères d’optimalité minimisent à la fois les pics de courbure et les changements abrupts, en recherchant la génération de chemins continus et lisses. Quartic Béziers est l'algorithme d'interpolation utilisé en raison de ses propriétés, permettant de respecter les limites de la route et les restrictions cinématiques, tout en permettant une manipulation facile des courbes. Ce planificateur fonctionne à la fois pour les environnements statiques et dynamiques. Les fonctions d'évitement d'obstacles sont présentées en fonction de la génération d'une voie virtuelle qui modifie le chemin statique pour effectuer chacune des deux manoeuvres de changement de voie sous la forme de deux courbes, convertissant le problème en un chemin statique. Ainsi, une solution rapide peut être trouvée en bénéficiant du planificateur local statique. Il utilise une discrétisation en grille de la scène pour identifier l'espace libre nécessaire à la construction de la route virtuelle, où le critère de planification dynamique consiste à réduire la pente pour les changements de voie. Des essais de simulation et des tests expérimentaux ont été réalisés pour valider l'approche dans des environnements statiques et dynamiques, adaptant la trajectoire en fonction du scénario et du véhicule, montrant la modularité du système
Intelligent Transportation Systems (ITS) developments are conceived to improve transportation reducing accidents, transport time and fuel consumption, while increasing driving security, comfort and efficiency. The final goal of ITS is the development of ADAS for assisting in the driving tasks, up to the development of the fully automated vehicle. Despite last ADAS developments achieved a partial-automation level, current systems are not robust enough to achieve fully-automated level in short term. Urban environments pose a special challenge, since the dynamism of the scene forces the navigation algorithms to react in real-time to the eventual changes, respecting at the same time traffic regulation and avoiding collisions with other road users. On this basis, this PhD thesis proposes a two-staged local planning approach to provide a solution to the navigation problem on urban environments. First, static information of both road and vehicle constraints is considered to generate the optimal curve for each feasible turn configuration, where several databases are generated taking into account different position of the vehicle at the beginning and ending points of the curves, allowing the real-time planner to analyze concavity changes making use of the full lane width.Then, actual road layout is contemplated in the real-time process, where both the available distance and the sharpness of upcoming and consecutive turns are studied to provide a human-like driving style optimizing two curves concurrently, offering that way an extended planning horizon. Therefore, the real-time planning process searches the optimal junction point between curves. Optimality criteria minimizes both curvature peaks and abrupt changes on it, seeking the generation of continuous and smooth paths. Quartic Béziers are the interpolating-based curve algorithm used due to their properties, allowing compliance with road limits and kinematic restrictions, while allowing an easy manipulation of curves. This planner works both for static and dynamic environments. Obstacle avoidance features are presented based on the generation of a virtual lane which modifies the static path to perform each of the two lane change maneuvers as two curves, converting the problem into a static-path following. Thus, a fast solution can be found benefiting from the static local planner. It uses a grid discretization of the scene to identify the free space to build the virtual road, where the dynamic planning criteria is to reduce the slope for the lane changes. Both simulation and experimental test have been carried out to validate the approach, where vehicles performs path following on static and dynamic environments adapting the path in function of the scenario and the vehicle, testing both with low-speed cybercars and medium-speed electic platforms, showing the modularity of the system
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Sommet, Julie. "Suivi d’enfants drépanocytaires dépistés en période néonatale : épidémiologie des principales complications et implications méthodologiques". Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5246.

Texto completo
Resumen
La drépanocytose est la maladie génétique la plus fréquente dans le monde et en France (1/2065 nouveau-nés vivants). Si la mortalité infantile liée à la drépanocytose a pu diminuer grâce à la mise en place du dépistage néonatal associé une antibioprophylaxie et une vaccination anti-pneumococcique, la morbidité de cette maladie reste un enjeu majeur dans la prise en charge de ces patients. L’atteinte neurologique, notamment la vasculopathie cérébrale (VC), en est la principale illustration. Cependant, la compréhension des facteurs de risque de morbi-mortalité est d’autant plus complexe qu’il existe une variabilité dans l’expression clinique de la drépanocytose entre les individus mais également une variabilité de la maladie au cours du temps. Les objectifs de cette thèse étaient 1/d’identifier au sein de la littérature, les méthodes utilisées pour prendre en compte les données biologiques dans des études pronostiques de l’enfant drépanocytaire puis d’étudier par une mise en application sur les données de notre cohorte, l’effet produit par le choix ces méthodes sur les conclusions statistiques. 2/ mener une étude analytique sur une des plus grandes cohortes d’Europe de nouveau-nés drépanocytaires pour identifier les facteurs cliniques et biologiques associés à la VC.La revue de la littérature a montré que diverses méthodes étaient utilisées pour prendre en compte les données biologiques au sein de la littérature. Nous avons testé sur un même échantillon de population, les facteurs associés à la VC et mis en évidence que les conclusions différaient selon la méthode utilisée. Lorsque l’on utilise un modèle en deux étapes pour prendre compte les données biologiques de manière longitudinale, les facteurs associés à la vasculopathie cérébrale sont l’obstruction bronchique (HR à 1,47 IC95%(1,05–2,06)), l’obstruction ORL (HR à 1,76, IC95%(1,49–2,08)), le taux de réticulocytes (HR à 1,82, IC95%(1,10–3,03) pour une augmentation de 50 000/mm3) et le pourcentage d’hémoglobine (HR à 0,68 IC95%(0,48–0,96) pour une augmentation de 5%).A l’issue de ce travail de thèse, nous avons montré la nécessité d’un consensus pour homogénéiser les modalités de recueil et des analyses statistiques dans le domaine des études pronostiques chez l’enfant drépanocytaire afin de renforcer la validité de leurs conclusions. Une collaboration entre cliniciens, hématologistes et épidémiologistes pourrait améliorer la qualité des études pronostiques, qui aboutissent parfois à des décisions thérapeutiques
Sickle cell disease is the most common genetic disease worldwide and in France (1/2065 live newborns). Although infant mortality linked to sickle cell disease has decreased thanks to the implementation of neonatal screening associated with anti-pneumococcal vaccination, the morbidity of this disease remains a major issue in the management of these patients. Neurological complications, in particular cerebral vasculopathy (CV), are the main illustration of this. However, understanding the risk factors for morbidity and mortality is all the more complex since there is a variation in the clinical expression of sickle cell disease between individuals, but also a variation in the disease over time.The objectives of this thesis were 1/to identify, in the literature, the methods used to take into account the biological data in cohort studies of sickle cell disease children. These methods were then applied to our cohort, in order to study the effect produced by the choice of these methods on the statistical conclusions. 2/To carry out an analytical study on one of the largest cohorts of sickle cell newborns in Europe, in order to identify the clinical and biological factors associated with CV. The literature review showed that various methods were used to take into account biological data. We tested the factors associated with CV on the same sample of the population and demonstrated that the conclusions differed depending on the method used. When using a two-step model to consider biological data longitudinally, the factors associated with cerebral vasculopathy are bronchial obstruction (HR 1.47, 95%CI (1.05–2.06)), ENT obstruction (HR 1.76, 95%CI (1.49–2.08)), reticulocyte count (HR 1.82, 95%CI (1.10–3.03) for an increase of 50,000 / mm3) and hemoglobin percentage (HR 0.68, 95%CI (0.48–0.96) for a 5% increase). At the end of this research, we showed the need for a consensus to standardize the collection methods and statistical analysis in the field of prognostic studies of sickle cell children, in order to strengthen the validity of their conclusions. Collaboration between clinicians, hematologists and epidemiologists could improve the quality of observational studies, which sometimes lead to treatment decisions
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Lecat, Gabriel. "Analyse économique de la planification urbaine". Phd thesis, Université de Bourgogne, 2006. http://tel.archives-ouvertes.fr/tel-00086797.

Texto completo
Resumen
Cette thèse propose d'une part une analyse des ressorts de l'efficacité des plans d'occupation des sols et des plans locaux d'urbanisme (POS/PLU). Elle caractérise, d'autre part par une régression logit, les déterminants de l'adoption en 1999 des POS par les communes n'en disposant pas encore ; les résultats corroborent le rôle déterminant des facteurs fiscaux et budgétaires. Enfin, elle réalise sur l'aire urbaine de Dijon entre 1994 et 2002 une évaluation comparée des effets des POS sur les prix fonciers des terres agricoles, ceux des terrains à bâtir et les prix immobiliers des maisons individuelles, en corrigeant l'endogénéité des POS au marché foncier ou immobilier par la méthode de Heckman (1979) et par la méthode instrumentale locale de Heckman et Navaro-Lozano (2004). L'existence d'un POS apparaît comme endogène aux prix des terrains à bâtir et aux prix immobiliers mais comme indépendante du marché foncier agricole. Il apparaît en outre que les POS accroissent à la marge les prix fonciers des terrains à bâtir et les prix immobiliers tandis qu'ils dévalorisent ceux des terrains agricoles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Facal, Joseph. "Etude de deux réformes dans le champ de la santé au Québec et aux Etats-Unis à l'aide du modèle de H. Jamous : contribution à une sociologie des décisions politiques". Paris 4, 1993. http://www.theses.fr/2002PA040202.

Texto completo
Resumen
Cette thèse se veut une étude de deux réformes dans le champ de la santé au Québec (réforme Castonguay, 1970-1973) et aux Etats-Unis (Medicare, 1965) à l'aide du modèle de la décision de H. Jamous (1969). Nous essayons d'identifier les forces en présence, leurs intéractions et les divers autres facteurs qui en expliquent le dénouement, et aussi d'évaluer la fécondité du modèle. Au plan théorique, nous concluons à l'impossibilité d'une théorie générale des décisions politiques et plaidons pour le recours à des théories davantage partielles et locales et pour une accentuation de la recherche empirique
This thesis is a study of two reforms in the health care field in Québec (Castonguay reform, 1970-1973) and the U. S. (Medicare, 1965) based on the decision-making model of H. Jamous (1969). We try to identify the social forces, their interactions and the other main factors that account for the outcome in each case, while also appraising the relevancy of the model. On a theoretical level, we conclude to the impossibility of a general theory of political decision-making and plead for less ambitious theoretical models and a heavier emphasis on empirical research
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Elamin, Abdelrahman. "Liquéfaction du bois en deux étapes : solvolyse et hydrotraitement". Compiègne, 1992. http://www.theses.fr/1992COMPD485.

Texto completo
Resumen
L'objectif de ce travail est de définir un procédé de liquéfaction du bois en vue d'obtenir un liquide riche en hydrocarbures, pour qu'il soit valorisable comme carburant. Le procédé étudié comporte deux étapes : solvolyse et hydrotraitement catalytique. L’étude de la solvolyse en présence des solvants dérivés de la lignine et d'holocellulose montre qu'il est possible de dissoudre complètement le bois dans des conditions opératoires relativement douces. Parmi les solvants purs ou mélanges binaires de solvants étudiés, c'est le mélange phénol/tétraline qui conduit à une conversion totale du bois et avec une meilleure régénération du mélange, plus de 50 % de l'oxygène du bois a été éliminée lors de la solvolyse. Le rendement de l'huile est de 70 %. L'étape d'hydrotraitement catalytique est pour le but d'éliminer l'oxygène résiduel de l'huile de solvolyse , ce que permettre d'augmenter son pouvoir calorifique et de diminuer la viscosité de l'huile. En présence de la tétraline, à une température de 350°C et une pression initiale d'hydrogène de 9 MPa, l'huile raffinée obtenue est nettement moins oxygénée que l'huile de solvolyse. Parmi les catalyseurs testés, le nickel molybdène sulfuré est le plus efficace. En présence de ce catalyseur, le rendement en huile raffinée est de 55 % par rapport au bois et sa teneur en oxygène ne dépasse pas 2 %. Le pouvoir calorifique de cette huile est de 43 MJ/kg ; il est situé presque au niveau du pouvoir du gazole pétrolier. Ces résultats ont permis de déterminer les conditions opératoires optimales de la solvolyse ainsi que celles de raffinage. L'huile raffinée peut être utilisée comme solvant pour dissoudre le bois, ce qui confirme qu'un procédé de liquéfaction en deux étapes, en continu, autonome. Est peut être envisageable
The objectives of this work is to define a liquefaction process to produce oil from wood rich in hydrocarbons compounds so as to be usable as an alternative fuel. The investigated process consist of two steps : solvolysis and upgrading. In presence of solvents that derived from lignin or from holocellulose, the experimental results show that it is possible to dissolve completely wood powder under relatively mild reaction conditions. Among the tested solvents, the mixture of phenol/ tetralin gives a complete conversion of wood with abetter regeneration of the initial solvents used and more than 50% of the oxygen content of the wood has been removed during the solvolysis. The yield of the solvolysis oil is 70 % wt. Of the initial dry wood. The upgrading step is mainly to remove the residual oxygen of the solvolysis oil in order to increase its heating value and to lower its viscosity. In presence of tetralin as hydrogen donner solvent, at 350°C and initial hydrogen pressure of 9 MPa. Within the tested catalysts the sulfied nickel molybdeum is the more efficient hence in presence of this catalyst under the above mentioned reaction condition, the refined oil yield is around 55% and its oxygen content is less than 2%. The heating value of the refined oil is 43 MJ/kg which can be classified as that of the petroleum’s product. This study allowed determining the optimal reaction condition of the solvolysis step, as well as that of the upgrading step for producing a refined oil usable as hydrocarbon fuel from wood. The refined oil can be used effectively for dissolving wood in the solvolysis step which justify that a continuous liquefaction process able to generate its own solvent can be realised
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Modèle en deux étapes"

1

Au-delà des douze étapes: Un modèle à suivre pour une nouvelle vie. Varennes, Québec: AdA, 2006.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

White, Kenneth. Two stages on the Northern route=Deux étapes sur la route du nord. [Guildford, Surrey]: Circle Press, 1985.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Ludna et Asa Paulini: Deux étapes antiques du Val de Saône sur la route de Lyon. Lyon: Publications de la Maison de l'Orient et de la Méditerranée, 2013.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Le piège du célibat: Guide en deux étapes pour échapper au célibat et trouver l'amour durable. Paris: Marabout, 2009.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Construire sa lettre de motivation: 100 modèles : pour toutes les étapes de la vie professionnelle, pour tous les profils, pour l'ensemble des secteurs d'activité. Paris: Leduc.s éditions, 2004.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

G, Lenotre. Paris Révolutionnaire : Série] le Roman de Camille Desmoulins. Mademoiselle de Robespierre. Deux Policiers. Savalette de Langes. les Derniers Jours d'andré Chénier. la Maison de Cagliostro. Deux Étapes de Napoléon. Autour de la du Barry. la Vieill...: Volume 1 of Paris Révolution. Creative Media Partners, LLC, 2018.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Wagner, Joël y Michel Fuino. Gestion du risque et introduction aux assurances. EPFL Press, 2022. http://dx.doi.org/10.55430/dsgs4578.

Texto completo
Resumen
La gestion du risque gagne en importance dans les entreprises comme dans la société en général. Cet ouvrage s'articule en deux grandes parties. Dans la première, le concept de risque est introduit dans son contexte historique et la terminologie et les concepts liés à l’identification et à la caractérisation des expositions au risque définis. Les outils nécessaires à l'appréciation des risques sont passés en revue et les différentes étapes du processus de la gestion du risque discutées. La deuxième partie s’attache à l’économie des assurances, aux assurances sociales et au marché des assurances privées. Les différentes branches et produits d'assurances privées sont analysés, avant que l’ouvrage expose les bases du calcul des primes d’assurances en fonction des prestations contractuelles et afin d’offrir un aperçu de la pratique d’un actuaire. De nombreuses applications pratiques (comme la gestion des cyber-risques), exemples et illustrations complètent l'ensemble. Cet ouvrage se pose comme une référence pour les étudiants des hautes écoles de gestion, les professionnels et toute personne intéressée par la gestion du risque et le domaine des assurances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Guinand, Cécile. Roman et caricature au XIXe siècle. Poétiques réalistes entre Illusions perdues et Éducation sentimentale. Librairie Droz, 2020. http://dx.doi.org/10.47421/droz60356.

Texto completo
Resumen
Au XIXe siècle, la caricature connaît un essor sans précédent en France et les écrivains s’intéressent de près à ce phénomène médiatique qui n’est pas sans lien avec le réalisme littéraire. Déformation au service du dévoilement de la v©rité, écart face au discours politique officiel et en porte-à-faux vis-à-vis des canons culturels, la caricature modèle l’imaginaire des écrivains qui s’inspirent de ses codes et mettent au point une caricature textuelle. Art en constant dialoue avec le contexte historique, politique, social et culturel, la caricature est indissociable de ses supports de diffusion : littérature panoramique, presse satirique illustrée, monde du théâtre, albums… ces différentes formes éditoriales sont autant de sources pour les romanciers qui s’en inspirent en même temps qu’ils s’en distancient. De l’étude sémiotique à l’analyse socio-culturelle médiatique, cet essai détaille les implications littéraires des relations entretenues par le roman réaliste et la caricature en s’appuyant sur deux œuvres majeures qui mettent en abyme ce contexte culturel, social et médiatique particulier : les Illusions perdues de Balzac et L’Éducation sentimentale de Flaubert.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Nackoney, Janet, Jena Hickey, David Williams, Charly Facheux, Takeshi Furuichi y Jef Dupain. Geospatial information informs bonobo conservation efforts. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198728511.003.0017.

Texto completo
Resumen
The endangered bonobo (Pan paniscus), endemic to the Democratic Republic of Congo (DRC), is threatened by hunting and habitat loss. Two recent wars and ongoing conflicts in the DRC greatly challenge conservation efforts. This chapter demonstrates how spatial data and maps are used for monitoring threats and prioritizing locations to safeguard bonobo habitat, including identifying areas of highest conservation value to bonobos and collaboratively mapping community-based natural resource management (CBNRM) zones for reducing deforestation in key corridor areas. We also highlight the development of a range-wide model that analysed a variety of biotic and abiotic variables in conjunction with bonobo nest data to map suitable habitat. Approximately 28 per cent of the range was predicted suitable; of that, about 27.5 per cent was located in official protected areas. These examples highlight the importance of employing spatial data and models to support the development of dynamic conservation strategies that will help strengthen bonobo protection. Le bonobo en voie de disparition (Pan paniscus), endémique à la République Démocratique du Congo (DRC), est menacé par la chasse et la perte de l’habitat. Deux guerres récentes et les conflits en cours dans le DRC menacent les efforts de conservation. Ici, nous montrons comment les données spatiales et les cartes sont utilisées pour surveiller les menaces et prioriser les espaces pour protéger l’habitat bonobo, inclut identifier les zones de plus haute valeur de conservation aux bonobos. En plus, la déforestation est réduite par une cartographie collaborative communale de gestion de ressources dans les zones de couloirs essentiels. Nous soulignons le développement d’un modèle de toute la gamme qui a analysé un variété de variables biotiques et abiotiques en conjonction avec les données de nid bonobo pour tracer la carte d’un habitat adéquat. Environ 28 per cent de la gamme est prédit adéquat; de cela, environ 27.5 per cent est dans une zone officiellement protégée. Ces exemples soulignent l’importance d’utiliser les données spatiales et les modèles pour soutenir le développement de stratégies de conservations dynamiques qui aideront à renforcer la protection des bonobos.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Modèle en deux étapes"

1

Gagner, Michel y Camilo Boza. "Le principe de l’approche bariatrique par étapes : exemple de la chirurgie en deux temps chez les patients à haut risque". En Chirurgie de l’obésité, 89–102. Paris: Springer Paris, 2009. http://dx.doi.org/10.1007/978-2-287-79954-9_7.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Angotti, Claire. "Les bibliothèques des couvents mendiants, un modèle pour les séculiers ? L’exemple de deux premiers bienfaiteurs de la bibliothèque du collège de Sorbonne (Robert de Sorbon, Gérard d’Abbeville)". En Bibliologia, 31–72. Turnhout: Brepols Publishers, 2014. http://dx.doi.org/10.1484/m.bib.5.102476.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

PROVAN, Gregory. "Diagnostic des systèmes stochastiques". En Diagnostic et commande à tolérance de fautes 1, 145–66. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch4.

Texto completo
Resumen
La prise en compte de l’incertitude est cruciale pour la détection précise des défauts. L'incertitude peut provenir de modèles imprécis ou de mesures bruitées. Une approche standard en deux étapes identifie les défauts par des résidus. Nous proposons un cadre de principes pour classifier les méthodes de diagnostic stochastique et guider leur application. Trois approches principales sont explorées : modèle, données et hybride.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Lasserre, René. "Les relations du travail en Autriche et en France : deux systèmes, deux logiques". En Le modèle autrichien, 70–78. Presses Sorbonne Nouvelle, 1989. http://dx.doi.org/10.4000/books.psn.3611.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

"Étapes de l’analyse de contenu Modèle général". En Méthodologie de l'analyse développementale de contenu, 51–124. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18phc82.7.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

"3.5. L'appropriation linguistique du modèle". En Deux lais en langue mixte. Berlin, Boston: De Gruyter, 1995. http://dx.doi.org/10.1515/9783110932409-013.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Mayer, Nonna. "L'atelier et la boutique : deux filières de mobilité sociale". En Le modèle républicain, 263. Presses Universitaires de France, 1992. http://dx.doi.org/10.3917/puf.berst.1992.01.0263.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Bimbenet, Étienne. "L’humain avant l’humain. Une évolution en deux étapes ?" En Préhistoire. Nouvelles frontières, 331–38. Éditions de la Maison des sciences de l’homme, 2023. http://dx.doi.org/10.4000/books.editionsmsh.56280.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

ZANETTI, Massimo, Francesca BOVOLO y Lorenzo BRUZZONE. "Statistiques par différences pour les changements multispectraux". En Détection de changements et analyse des séries temporelles d’images 1, 247–303. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch9.

Texto completo
Resumen
Dans ce chapitre, nous introduisons deux modèles statistiques pour la description de la distribution des vecteurs de différences spectrales, et nous en tirons des méthodes de détection de changements basées sur une différence d'images. Le chapitre introduit d'abord le modèle standard à deux classes inchangé/changé pour la classification binaire. Lorsqu'on considère les informations de module, le modèle à deux classes peut être décrit par un mélange de distributions Rayleigh-Rice. L'estimation de paramètres de ce mélange est une tâche non triviale car ce modèle est non conventionnel. Par conséquent, une version de l'algorithme espérance-maximisation (EM), qui est adaptée spécifiquement au mélange Rayleigh-Rice, est présentée. Le chapitre propose alors une généralisation du modèle à deux classes inchangé/changé au cas multiclasse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Braconnier, Alain. "Clinique des fonctionnements limites à l’adolescence : deux modèles psychothérapiques". En Actualité des états limites, 63. ERES, 2014. http://dx.doi.org/10.3917/eres.estel.2014.01.0063.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Modèle en deux étapes"

1

GUILLOU, Sylvain, Julien CHAUCHAT, Damien PHAM VAN BANG, Duc Hau NGUYEN y Kim Dan NGUYEN. "Simulation du clapage de sédiment avec un modèle à deux phases". En Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2010. http://dx.doi.org/10.5150/jngcgc.2010.037-g.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ciguino, Hubermane y Bénédique Paul. "Analyse de l’impact des programmes de microfinance dans la performance des microentreprises". En Sessions du CREGED à la 30e Conférence Annuelle de Haitian Studies Association. Editions Pédagie Nouvelle & Université Quisqueya, 2021. http://dx.doi.org/10.54226/uniq.ecodev.18793_c3.

Texto completo
Resumen
Les débats sur les impacts des programmes de microfinance sont continus. Deux courants théoriques y sont opposés : le welfarisme et l’institutionnalisme. Les insuffisances du dualisme welfarisme et institutionnalisme ne permettent pas d’analyser les effets financiers des programmes de microfinance sur les microentreprises. Dans cette recherche, nous proposons un nouveau modèle d’analyse basé sur les déterminants de la performance des microentreprises. Ce modèle tient compte des conditions de microfinancement élaborées par les organisations de microfinance et les pratiques de gestion dans les microentreprises. La question étudiée est la suivante : les conditions de microfinancement greffées sur des pratiques de gestion des emprunteurs sont-elles favorables à la performance économique des microentreprises ? Notre hypothèse est que vu la faiblesse des pratiques de gestion des emprunteurs, les conditions de microfinancement ont des effets d’appauvrissement sur des microentreprises. En vue de tester cette hypothèse, nous proposons tout d’abord un nouveau modèle destiné à être expérimenté à travers l’analyse d’un programme de microfinance haïtienne, à partir d’enquête auprès d’un échantillon aléatoire de bénéficiaires, dans les communes de Port-au-Prince et Miragoâne.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

KERLIDOU, Loreline, Alicia ANDRE, Rafik ABSI y Hitoshi TANAKA. "Evaluation de profils de viscosité turbulente en couches limites oscillantes par un modèle à deux équations k-ω". En Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2012. http://dx.doi.org/10.5150/jngcgc.2012.009-k.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Darrault-Harris, Ivan. "De la santé à la maladie et vice-versa : des procès de transition d’un état à l’autre". En Actes du congrès de l’Association Française de Sémiotique. Limoges: Université de Limoges, 2024. http://dx.doi.org/10.25965/as.8411.

Texto completo
Resumen
Existe Définie comme un des droits fondamentaux de tout être humain, la santé, pour l’OMS, est un état de complet bien-être physique, mental et social et ne consiste donc pas seulement en une absence de maladie ou d'infirmité. Cette redéfinition ambitieuse multiplie, on le voit, les sources de mal-être et autant de nécessaires transitions, à examiner, pour atteindre et maintenir sur toutes ces dimensions un bien-être total. On envisagera dans cette perspective certains modes de transition emblématiques entre ces deux états : ainsi la guérison – sans transition - miraculeuse et instantanée, la guérison comme processus complexe impliquant une gradation des étapes soumises à la véridiction, voire une inscription, avec la maladie, dans la chronicité. Ainsi l’actuelle épidémie pose le problème d’un allongement duratif et inédit des symptômes, dans le cas du « Covid long » : transition interminable vers l’état de santé et dénonçant une illusoire guérison. Mais l’examen, si minutieux soit-il, de la temporalité transitionnelle ne saurait éluder la question des actants, multiples, convergents ou non, du changement, intimement liés à l’économie même des types de transition.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

FERRANDON, Erwan, Mathis COURANT, Camélia POPESCU, Yann LAUNAY, Sophie ALAIN y Claire LEFORT. "Un pipeline instrumental et computationnel pour visualiser des particules virales de SARS-CoV-2 en suspension". En Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.684.

Texto completo
Resumen
La compréhension des modes d’actions biologiques des virus dans une cellule hôte est un sujet complexe pour lequel nous pensons que les solutions optiques pourraient apporter des éléments de réponse nouveaux. Cependant, les dimensions des particules virales sont environ 3 fois plus petites que la résolution d’un microscope optique. Nous proposons de tester une nouvelle stratégie instrumentale et computationnelle, reposant sur la microscopie multiphotonique, pour visualiser des objets dont les dimensions sont de l’ordre de quelques centaines de nanomètres. Cette stratégie repose sur la prise en compte de la réponse impulsionnelle de l’instrument (PSF pour Point Spread Function) in situ, modélisée mathématiquement. A partir de ce modèle qui prend en compte les distorsions optiques locales, un post-traitement numérique des images est appliqué en vue d’optimiser la qualité visuelle des images. Nous faisons des tests sur deux populations de virus : les Cytomégalovirus (CMV) et le SARS-CoV-2.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Musquer, N., N. Chapelle, M. Le Rhun, E. Metiver, Y. Touchefeu y E. Coron. "L'injection haute pression est-elle utile pour la dissection sous-muqueuse? Résultats d'une étude randomisée prospective comparant deux couteaux de «seconde génération» sur un modèle porcin vivant". En Journées Francophones d'Hépato-Gastroentérologie et d'Oncologie Digestive (JFHOD). Georg Thieme Verlag KG, 2018. http://dx.doi.org/10.1055/s-0038-1623406.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Elmoutawakkil, N., S. Bouzoubaa, S. Bellemkhannate y I. Benyahya. "Flux de travail du guidage tridimensionnel en chirurgie orale". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602005.

Texto completo
Resumen
L’implantologie assistée par ordinateur permet de sécuriser le geste, de prévoir les potentielles complications, d’anticiper la séquence de forage et le choix de l’implant et donne la possibilité d’avoir une transition entre la simulation et la chirurgie à l’aide d’un guide chirurgical, elle est utilisée pour faciliter l’établissement d’un diagnostic précis et du plan de traitement idéal[1]. Dès que les images radiologiques (sous format DICOM) sont acquises suite à la réalisation d’une tomodensitométrie ou d’un cône-beam, elles sont transférées dans un logiciel de planification qui permettra la transformation des vues bidimensionnelles en une vision tridimensionnelle, pour évaluer la quantité et la qualité du volume osseux disponible et réaliser une représentation colorée et tridimensionnelle des éléments anatomiques présents sur les coupes dans le but de réaliser une simulation implantaire, Une fois placé, l’implant est visualisé immédiatement dans les trois plans de lespace, ensuite le praticien peut anticiper les caractéristiques du pilier, l’axe prothétique, et simuler l’épaisseur de la gencive. Ainsi un guide chirurgical à appui dentaire, muqueux ou osseux est conçu, à sa réception du guide, le fabricant fournit une feuille de route correspondant au système implantaire et à la trousse chirurgicale utilisée. Elle contient toutes les informations pour chaque implant et peut être complété par des cuillères et des porte-implants individualisés.Les résultats montrent que les écarts entre la réalité clinique et la planification émanent du type d’appui du guide. Un bio-modèle peut être imprimé en 3D, il servira comme outil pédagogique pour expliquer au patient le déroulement du projet et permettra également de réaliser une chirurgie « sèche » en amont de la pose d’implant ; et dans le cas de régénération osseuse guidée utilisant des grilles en titane il servira de support pour les préformer dans l’asepsie totale [2]. Les prothèses provisoires immédiates sont également réalisées au besoin, grâce à la superposition de la conception tridimensionnelle implantaire au modèle du patient scanné optiquement éviteant les erreurs de conception des prothèses immédiates. En oncologie buccale, la planification assistée permettra en segmentant la tumeur, de visualiser ses marges et sa taille, de réaliser un guide de résection et de customiser les plaques et les treillis imprimés en 3D. L’avènement de la conception et de la fabrication assistée par ordinateur a permis de révolutionner la chirurgie orale et de supprimer les erreurs opérateur dépendant en codifiant les actes, le travail présenté vise à décrire les différentes étapes du flux de travail optimal à adopter en chirurgie orale, permettant la réalisation de chirurgie totalement assistée, la conception et la fabrication de différents guides de forage et de résection osseuse ainsi que des prothèses provisoires immédiates [3].
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Maizeray, S., H. Herry, G. Valette y S. Boisramé. "Innovation dans la communication et la gestion du stress en chirurgie orale : méthode d’analyse ProcessCom®". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602003.

Texto completo
Resumen
Pas facile de savoir communiquer efficacement en tant que chirurgien oral ! C’est probablement la raison pour laquelle nous parlons d’art pour un acte aussi banal que celui de communiquer avec son patient. L’Art de communiquer, c’est l’art de « tester »son interlocuteur pour se positionner rapidement dans sa personnalité et mettre en place le bon canal de communication. Les situations de stress simposent quotidiennement pour le patient et pour le chirurgien. Et la résolution de ces situations dépend de la qualité de communication car c’est la qualité de l’entente interpersonnelle qui va influencer celle du traitement, de la santé buccale du patient et du bien être du praticien. De nombreuses thérapeutiques sont actuellement utilisées pour faciliter la gestion du stress : la prémédication sédative (antihistaminiques, benzodiazépines, ), la sédation consciente, la psychothérapie (thérapies cognitives comportementales), l’hypnose, la musicothérapie Créée au début des années 1980 par T. Kahler, la Process Communication (PC) est un outil de compréhension du fonctionnement des différentes parties de la personnalité présentes à des degrés variables chez une personne. Cette méthode danalyse a démontré un intérêt majeur en tant quoutil positif de communication lors de séminaires de formation et pour les étudiants et enseignants (Hranicky, 2015) (Drouin 2015) (Collignon, 2013). La manière de dire les choses dans la PC a plus dimportance que le contenu du message. Dans une situation dite « stressante », le problème vient rarement de ce qui est dit mais surtout de la façon dont cela a été dit. La PC apporte une carte rapidement lisible des caractéristiques d’un type de personnalité : ses points forts, ses motivations, ses modes de communication, les environnements dans lesquels il sera à laise ou pas, les types de personnalité avec lesquels il interagira facilement ou difficilement. Il existe donc des stratégies individuelles face à chaque personnalité pour éviter les situations de «mécommunication» et pour retrouver la disponibilité intellectuelle et émotionnelle. Le premier intérêt de ce modèle est de soccuper de soi ; c’est à dire identifier nos points forts et nos motivations qui permettent d’accroître notre flexibilité et efficacité à communiquer, agir sur nos comportements de stress et utiliser au mieux nos talents personnels. Le second intérêt est de soccuper de lautre; C’est-à-dire savoir de quoi il a besoin dans sa relation. Ce modèle de communication présente un grand intérêt dans la prise en charge du patient stressé et transmetteur de stress en chirurgie orale. Il nous amène à réaliser que les difficultés de la communication ne sont pas à imputer au type de personnalité de lautre mais à la relation dysfonctionnelle existante entre deux types de personnalité. Ce changement de croyance ou dattitude mentale, vis-à-vis de lautre constitue un pré-requis indispensable à lamélioration de la flexibilité relationnelle et du professionnalisme du chirurgien oral. De futures recherches en santé seront à mener afin de diversifier les applications de cette méthode, notamment en chirurgie orale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Marcotte, Sophie. "Le calme après la tempête. Le pouvoir symbolique de l'eau dans l'œuvre de Gabrielle Roy". En XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.2527.

Texto completo
Resumen
La romancière Gabrielle Roy (1909-1983) a été, dès le début de sa carrière, une fine observatrice de la nature. En témoignent, notamment, les passages consacrés aux excursions de pêche dans ses reportages sur la Gaspésie et les descriptions des Prairies de l'Ouest canadien apparaissant dans les textes rédigés pour le compte de périodiques montréalais comme Le Canada et Le Bulletin des agriculteurs (1940-1942). En attestent aussi les descriptions du fleuve Saint-Laurent et du canal Lachine qui ponctuent son premier roman, Bonheur d'occasion, paru en 1945 au Québec (Felicidad ocasional, 1948) – pour lequel elle a remporté le Prix Fémina (1947). Or, on remarque, dans l'ensemble de son œuvre et dans certaines portions de sa correspondance, une présence marquée des milieux aquatiques (étangs, lacs, rivières, marécages, etc.) et des paysages marins (océan, mer, plage, etc.), auxquels l'écrivaine paraît – c'est l'hypothèse que nous chercherons à développer – conférer un pouvoir d'apaisement et de rédemption. Ce pouvoir symbolique s'observe tout particulièrement dans deux scènes de tempête que nous analyserons dans le cadre de cette communication : l'une se déroulant en Bretagne et décrite dans le menu détail dans la correspondance avec son mari (1948), reprise ensuite et modulée dans un récit inédit intitulé « La tempête » ; l'autre ayant lieu en Gaspésie, à Port-Daniel, en 1943, où l'écrivaine s'était réfugiée suite au décès de sa mère, scène qui est racontée dans son autobiographie, Le temps qui m'a manqué (1997). Nous montrerons, par l'examen de ce corpus, et par quelques autres exemples puisés dans ses romans et textes autobiographiques, que l'eau, dont l'agitation initiale reflète les tourments et l'errance intérieurs des personnages, devient, au terme de la tempête, une force d'apaisement et de rédemption agissant sur ceux-ci et les invitant, dès lors, par son calme retrouvé et son caractère désormais rassurant et protecteur, à une introspection, puis à une fuite vers l'avant.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.2527
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Sonesson, Göran. "Rhetoric from the standpoint of the Lifeworld". En Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3106.

Texto completo
Resumen
La rhétorique du point de vue du monde de la vie La rhétorique de l’image dont parlait Barthes, reprise d’une manière beaucoup plus systématique dans les travaux du Groupe µ, n’est qu’une partie de la rhétorique classique, l’elocutio, mais c’est aussi celle qui a dominé dans l’Occident pendant ces derniers 500 ans. À l’extérieur de la sémiotique, cependant, le renouveau de la rhétorique à l’époque contemporaine tend à concevoir cette dernière comme la science qu’étudie la communication. Or, nous savons que la sémiotique a souvent été identifiée comme étant la science de la communication, et un autre candidat à ce titre est sans doute l’herméneutique. Alors que ces trois disciplines ont toutes trait au processus entier, elles le conçoivent dans une perspective chaque fois différente. La rhétorique prend le point de vue du créateur du message : il demande comment il faut s’exprimer pour obtenir l’adhérence de l’autre. L’herméneutique prend le point de vue du récepteur : sa question porte sur les moyens pour comprendre le message de l'autre. La sémiotique prend une position intermédiaire aux deux autres, c’est-à-dire au sein de la phase allant de l’artefact à sa concrétisation : elle demande quelles sont les ressources disponibles pour faire se produire le processus. À une telle rhétorique informée par la sémiotique la contribution du Groupe µ a été de toute première importance. Cependant, l’investigation des ressources disponibles, qui sont différentes dans le cas de l’image que dans celui de la langue, peut recevoir une base plus certaine en partant du monde de la vie, dans le sens de la phénoménologie, qui est aussi celui de l’écologie dans le sens de Gibson et le monde naturel tel que le comprend Greimas. Si l’on veut comprendre la manière dont la divergence est produite dans les images, il faut commencer par considérer ce qui est donné pour acquis, dans le sens à la fois de ce qui est normal, et de ce qui est normatif. Dans le monde de la vie, il y a certaines choses qui ont tendance à se présenter ensemble, en contiguïté ou comme des parties d’un tout (désormais, la factorialité). C’est la dimension indicielle. Mais le sens commun s'attend également à ce que les choses qui apparaissent ensemble soient suffisamment différentes pour pouvoir être distinguées, sans aller à l'extrême opposé de s’exclure mutuellement (une observation qui peut être entendue comme une généralisation de ce que le Groupe µ dit sur la norme de l’image, la homomatérialité et la hétéroformalité). En ce sens, il y a une rhétorique de trop de ressemblance ainsi que de trop de différence. Nous appellerons ceci la dimension iconique. Une troisième rhétorique prend son point de départ dans le caractère de signe de l'image. Nos attentes sont déçues tant en trouvant une trop grande partie de la réalité dans l'image qu’en rencontrant des niveaux supplémentaires de fiction au sein du contenu pictural. On peut appeler ceci la dimension symbolique. Enfin, les images remplissent des fonctions différentes dans une société donnée et sont, en raison de ce fait, imputables à diverses catégories, donnant ainsi lieu à une quatrième rhétorique dans laquelle nos attentes, en ce qui concerne les catégories sociales auxquelles les images sont assignées, ne sont pas remplies. On peut parler ici d’une dimension de catégorisation socioculturelle. Avant d’aborder les figures rhétoriques, ou ce qui en tient lieu, il est cependant nécessaire de discuter dans quelle mesure les ressources des images comprennent une part de dispositio, dans d’autres termes, une structure argumentative. Si nous définissons une affirmation comme étant une construction verbale, alors il est trivialement vrai que les images ne peuvent rien affirmer. Toutefois, si nous définissons une affirmation plus simplement comme une opération, au moyen de laquelle une propriété particulière est assignée à une entité particulière, alors il est possible pour l'image de faire des affirmations à la façon des images. Or, même ceci peut sembler impossible, s’il est vrai que les images, comme on l’a souvent dit, ne font que reproduire le monde de notre expérience. Au contraire, il faut admettre que les images peuvent se servir des arguments qui, dans le sens de Perelman, s’appuient sur la structure de la réalité ou servent à changer cette structure-là. Il s’ensuit que les transformations homogènes, contrairement à ce que suggère le Groupe µ, font aussi partie de la rhétorique, mais de la rhétorique de la dispositio. Considérée comme l’une des transformations possibles à partir du monde de la vie, la première dimension de la rhétorique correspond plus directement à la rhétorique telle qu’elle a été conçue par le Groupe µ, mais en retournant aux fondements jetés par la sémiotique phénoménologique proposée dans Pictorial concepts (1989). Contrairement au Groupe µ, nous proposons de distinguer les transformations portant sur la factorialité (la relation des parties au tout) et celles concernant la contiguïté. C’est « l’objet indépendant », dans le sens de James Gibson, qui fait la différence entre la contiguïté et la factorialité : il s’agit d’un degré d’intégration plus ou moins poussée. En fait, il y a sans doute des cas intermédiaires entre l’objet indépendant avec ses parties et la constellation arbitraire, mais ces cas-là sont aussi qualitativement vécus : le jeu, la série, l’ensemble. La rhétorique, de ce point de vue, relève de la méréologie, la science des parties et du tout, formalisée par Lesniewski en tirant son inspiration de Husserl et de Twardowski. Notre deuxième observation concerne la nature de l’opération nous faisant passer du monde de la vie à l’image. Dans la majorité de cas, l’opération rhétorique, pour fonctionner, à besoin non pas d’une absence de ce qui est attendu ou de la présence de quelque chose qui n’est pas attendu, mais des deux à la fois. Rares sont les cas (surtout s’agissant de la contiguïté) où une simple absence peut créer un effet de rhétorique. Dans les termes de la rhétorique générale d’abord conçue par le Groupe µ, la substitution est une opération rhétorique plus sûre que l’addition ou la suppression. D’autre part, dans le cas de la factorialité, l’effet est tellement différent selon les relations entre le tout et les parties qu’il faut spécifier la nature du rapport de la partie au tout. Il faut surtout distinguer le cas où quelque chose est ajouté à un tout qui est déjà en soi un objet indépendant, et le cas où les parties font partie d’un autre objet indépendant que le tout qui est perçu. Nos attentes peuvent être déçues par d’autres opérations que l’absence ou la présence d’un élément. Il peut y avoir une contradiction entre l’élément attendu et l’élément réellement présent. C’est la dimension iconique de la rhétorique. Les images, il est vrai, ne peuvent pas présenter des contradictions proprement dites, mais elles peuvent comporter toute sorte de manifestations d’une ressemblance ou d’une différence plus grande que ce que l’on a anticipé. Cet effet est présent dans plusieurs exemples considérés par le Groupe µ, sans que la spécificité de l’opération soit prise en compte. S’agissant d’un signe, en l’occurrence d’une image, il y a toujours un risque de confusion entre le signe et ce qui est signifié, et il est possible d’en tirer une rhétorique. À un extrême, le signe peut incorporer des objets réels ; à l’autre extrême, il peut contenir d’autres signes, notamment d’autres images, comme c’est le cas avec les images représentant d’autres images. Il s’agit donc de la dimension symbolique de la rhétorique. Finalement, la catégorisation des signes, dans ce cas les images, peut donner lieu à une rhétorique plus clairement socioculturelle. Les images peuvent être catégorisées en tenant compte de leur manière de construction, de la fonction qu’elles sont censées remplir dans la société, ou de leur manière de circuler à l’intérieur de la société. Les attentes qui peuvent être déçues dans ces cas ne concernent pas seulement l’appartenance de certaines images à des catégories particulières, mais surtout la combinaison de certaines catégories de construction avec certaines catégories de fonction et certaines catégories de circulation. Toute l’aventure du modernisme dans l’art plastique peut être conçue comme un vaste geste rhétorique à partir de la notion d’art à la fin du 18e siècle : une peinture à l’huile (construction) circulant dans des salons, des galeries et des musées (circulation) ayant pour but de produire un effet de plaisir esthétique (fonction). Dans le présent texte, j'ai suggéré que, contrairement aux signes verbaux, les images sont immédiatement rhétoriques, parce qu'elles nous offrent en même temps leur similitude et leur différence par rapport au monde de la perception. Par conséquent, j'ai fait observer que la rhétorique des images doit être fondée sur les structures de perception telles qu’elles apparaissent au sens commun, surdéterminées par le monde de la vie socioculturel spécifique. La dimension primaire de la rhétorique de l’image, l’indexicalité, dérive sa signification d'un écart par rapport à l'intégration relative des voisinages, des objets indépendants et des totalités de niveaux supérieurs. Elle peut concerner la contiguïté ou la factorialité, mais elle suppose d'habitude à la fois la présence de quelque chose d’inattendu et l'absence de quelque chose de prévu. L’iconicité, qui détermine la deuxième dimension, est fondée sur l'expectative d'une différenciation relative des objets du monde, qui ne suppose pas trop de similitude, ni trop de dissimilitude. La troisième dimension dépend du caractère fictif de l’image comme signe, dont les niveaux peuvent être confondus soit par une expérience trop directe, soit par des degrés de fiction trop nombreux. Finalement, la quatrième dimension concerne l'image en tant qu’objet social, faisant partie de certaines catégories de construction, de circulation, et de fonction. L'avantage de cette conception, par rapport au modèle de Groupe µ auquel il est endetté, consiste en son attention plus proche aux structures de la perception du sens commun.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Informes sobre el tema "Modèle en deux étapes"

1

Campbell, Bryan, Michel Magnan, Benoit Perron y Molivann Panot. Modélisation de règles budgétaires pour l’après-COVID. CIRANO, enero de 2022. http://dx.doi.org/10.54932/nesj4065.

Texto completo
Resumen
Le but du présent travail est d'évaluer l'apport que pourrait avoir l’imposition de règles budgétaires sur le retour au déficit 0 annoncé pour 2027-28 dans le budget 2021-22. Notre approche simule de nombreux scénarios économiques futurs, chacun incorporant des règles budgétaires. Cet exercice est répété un grand nombre de fois, ce qui génère une distribution des déficits budgétaires pour chaque horizon temporel désiré et pour chaque règle budgétaire analysée. Cette approche s’appuie sur une étude historique des écarts budgétaires pour développer un modèle de simulations des écarts qui prend en compte leur évolution dans le temps et leur corrélation entre les composantes budgétaires à l’aide d’un modèle à facteur. Notre approche en deux étapes permet de simuler des déficits futurs : en nous basant sur la valeur simulée du facteur, les écarts des diverses composantes budgétaires sont déterminés. Ensuite, pour chaque composante du budget, le revenu ou dépense avéré est obtenu directement de la valeur prévue au budget (qui reflète l’application d’une règle budgétaire) et de l’écart. La valeur simulée du déficit peut ainsi être calculée. Nous étudions par simulation l’impact de deux grandes classes de règles budgétaires. La première limite la croissance des dépenses de chaque mission à 5% par année alors que la deuxième permet une hausse plus élevée pour la santé et les services sociaux, 6%, que pour les autres missions, 2%. Chacune de ces règles est analysée sous un scénario de référence et deux spécifications alternatives : une première permet un effet de rétroaction et impose une diminution des dépenses si les cibles budgétaires sont ratées, alors que la deuxième considère une augmentation de l’incertitude économique et budgétaire. Dans ce rapport, nous prenons comme point de départ la trajectoire de déficits prévue par le Ministère dans les documents budgétaires de mars dernier. En particulier, nous imposons un retour à l’équilibre budgétaire lors de l’année fiscale 2027-28 et ajustons les revenus pour refléter cette contrainte. Nos résultats de simulation se trouvent aux tableaux 1 et 2 et sont synthétisés aux tableaux 3 et 4.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Boivin, R., H. Larocque y S. J. Paradis. Étapes de création d'un modèle numérique de terrain et d'une carte thématique avec relief en utilisant le logiciel ArcInfo et le module GRID. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 2002. http://dx.doi.org/10.4095/213049.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Bordeleau, Raphaëlle, Mathilde Montpetit, Jade Jost, Régis Blais, Delphine Bosson-Rieutort, Géraldine Layani y Nadia Sourial. Quels seront les soins de santé de première ligne du futur ? Compte-rendu du 40e Colloque Jean-Yves Rivard. CIRANO, febrero de 2024. http://dx.doi.org/10.54932/oocl1335.

Texto completo
Resumen
Nous présentons dans ce compte-rendu une synthèse du 40e Colloque Jean-Yves Rivard, organisé par le Département de gestion, d'évaluation et de politique de santé de l’École de santé publique de l’Université de Montréal, qui s’est tenu le 1er juin 2023 et qui portait sur les soins primaires. Le colloque était constitué de quatre panels réunissant des chercheurs, décideurs, professionnels de la santé et représentants de patients, ainsi que d’une conférence de clôture présentée par un expert en analyse des systèmes de santé. Les thèmes abordés ont été l’optimisation du rôle du médecin de famille, la contribution de l’ensemble des professionnels de la santé, les modèles novateurs d’ici et d’ailleurs, et le modèle idéal de soins primaires pour les patients inscrits et orphelins et les perspectives sur la première ligne en santé. Les messages clés du colloque ont mis en évidence la nécessité de travailler en équipe et de revoir le modèle d'inscription et d'affiliation des patients à un médecin de famille. D'autres recommandations ont également été émises, telles qu’étendre la collaboration entre les CLSC et les GMF, envisager différents modèles de soins complémentaires en fonction des besoins des patients, renforcer les systèmes de communication entre établissements et entre professionnels et donner plus de pouvoir aux patients à toutes les étapes de leur trajectoire de soins.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Dostie, Jade, Maurice Doyon y Laure Saulais. Création d’un outil de mesure de la littératie concernant la gestion de l’offre et d’évaluation de son impact. CIRANO, junio de 2023. http://dx.doi.org/10.54932/tygi8452.

Texto completo
Resumen
La présente étude s’inscrit dans un processus de développement d’un outil de mesure des connaissances en agroéconomie, plus précisément au sujet de la gestion de l’offre, et ce, au niveau pancanadien. La gestion de l’offre est une politique agricole unique au Canada et dont les effets ne font pas l’unanimité parmi les experts. Puisque les divergences d’opinion concernant la gestion de l’offre ont été portées jusque dans les médias destinés au grand public (éditoriaux, articles d’opinion, etc.), il semble intéressant de mesurer le niveau de connaissance de la population canadienne sur ces principaux éléments. En outre, les consommateurs canadiens manifestent un intérêt croissant vis-à-vis de certains attributs sociaux de leur consommation alimentaire sur lesquels la gestion de l’offre peut avoir un impact indirect – en particulier l’équité, le bien-être animal et l’impact environnemental. Cependant, très peu d’études explorent la connaissance et la compréhension de ces aspects par les consommateurs Nous avons recensé peu de littérature sur le développement d’indicateurs de littératie en agriculture et encore moins en agroéconomie. Cette étude développe dans un premier temps un outil de mesure de la littératie concernant la gestion de l’offre, puis dans un deuxième temps un outil d’évaluation de la perception de la gestion de l’offre par les Canadiens. Les étapes de création des deux outils sont décrites et l’analyse des résultats du prétest de l’outil de mesure de la littératie est présentée et discutée. Le prétest a été complété par 119 répondants, dont 62 évoluant dans le milieu agricole. Les répondants ont en moyenne un score de littératie de 56,4%. L’échantillon étant surreprésenté en ce qui concerne la connaissance du milieu agricole, on estime que ce niveau de littératie relativement faible est plus élevé que celui de la population générale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, diciembre de 2022. http://dx.doi.org/10.54932/wodt6646.

Texto completo
Resumen
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Dufour, Quentin, David Pontille y Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, abril de 2021. http://dx.doi.org/10.52949/2.

Texto completo
Resumen
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, octubre de 2023. http://dx.doi.org/10.54932/ryht5065.

Texto completo
Resumen
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía