Academic literature on the topic 'Bloc modèle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Bloc modèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Bloc modèle"

1

Riveline, J. P., J. L. Nguewa, B. Baz, P. Boudou, M. A. Djoudi, B. Blondeau, B. Bréant, Y. Morel, and J. F. Gautier. "P191 Bloc en 21 hydroxylases, un modèle humain d’exposition fœtale aux glucocorticoïdes: conséquences métaboliques chez l’adulte." Diabetes & Metabolism 41 (March 2015): A81. http://dx.doi.org/10.1016/s1262-3636(15)30304-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Couharde, Cécile, and Didier Borowski. "Euro, dollar, yen. Pour une approche multilatérale des taux de change d'équilibre." Revue économique 51, no. 3 (May 1, 2000): 671–81. http://dx.doi.org/10.3917/reco.p2000.51n3.0671.

Full text
Abstract:
Résumé L'objectif de cet article est d'estimer des taux de change d'équilibre des trois monnaies qui constituent le nouveau socle du SMI : l'euro, le dollar et le yen. Sur le plan théorique, notre analyse s'inscrit dans le cadre de l'approche dite de « l'équilibre macroéconomique » développée par le FMI et l'Institute for International Economics. Sur le plan empirique, les taux de change d'équilibre estimés résultent d'une approche de statique comparative qui repose sur les équations du bloc d'échanges mondiaux du modèle multinational Nigem. La nouveauté réside dans la présentation des sensibilités des taux de change d'équilibre aux écarts des balances courantes structurelles à leur cible.
APA, Harvard, Vancouver, ISO, and other styles
3

Godbout, Jean-François, and Bjørn Høyland. "Legislative Voting in the Canadian Parliament." Canadian Journal of Political Science 44, no. 2 (June 2011): 367–88. http://dx.doi.org/10.1017/s0008423911000175.

Full text
Abstract:
Abstract.We analyze legislative voting in the 35th (1994–1997), 38th (2004–2005), and 39th (2006–2008) Canadian Parliaments. Using Poole's (2005) optimal classification algorithm, we locate MPs and their parties in a two-dimensional geometric model. The first dimension represents the division between governing and opposition parties that has been found in similar parliamentary systems. The second dimension captures the opposition between the Bloc Québécois and the rest of the legislature. We find a clear separation between the Reform party (and later the Conservative party) and the Bloc Québécois in the 35th and 38th Parliaments, with the Liberal and the New Democratic parties occupying the centre. However, in the 39th Parliament, the ordering changes with the Conservatives and the New Democrats near the centre, and Liberal and Bloc MPs occupying the extremes. We explain this change by the capacity of the governing party to control the legislative agenda and the recent minority governments in the House of Commons.Résumé.Nous analysons le vote législatif au trente-cinquième (1994–1997), au trente-huitième (2004–2005) et au trente-neuvième (2006–2008) Parlement canadien. En utilisant la méthode de classification optimale développée par Poole (2005), nous situons les députés de la Chambre des communes et leurs partis dans un modèle géométrique comprenant deux dimensions. La première dimension représente le conflit entre le gouvernement et les partis d'opposition que l'on retrouve également dans d'autres systèmes parlementaires, alors que la seconde dimension correspond à l'opposition régionale qui existe entre le Bloc Québécois et les partis fédéraux. Nous constatons une nette polarité entre le Parti réformiste (et plus tard le Parti conservateur) et le Bloc Québécois au trente-cinquième et au trente-huitième Parlement, alors que le Parti libéral et le Nouveau Parti démocratique se trouvent au centre. Cependant, au trente-neuvième Parlement, nous observons un changement dans la polarité régionale, puisque ce sont maintenant les Libéraux et les Bloquistes qui occupent les deux extrémités, alors que les Conservateurs et les Néodémocrates se situent au centre. Nous expliquons ces mouvements par la capacité du gouvernement de contrôler l'agenda législatif et par les récents gouvernements minoritaires à la Chambre des communes.
APA, Harvard, Vancouver, ISO, and other styles
4

Hanset, Arnauld, Nadine Meskens, Olivier Roux, and David Duvivier. "Conception d’un modèle modulaire d’ordonnancement du bloc opératoire avec prise en compte des contraintes liées aux ressources humaines et matérielles." Logistique & Management 19, no. 2 (January 2011): 29–42. http://dx.doi.org/10.1080/12507970.2011.11516986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Vergniault, Christophe, and Sylvain Pouliquen. "Retour d’expérience sur l’évolution des méthodes géophysiques pour construire un modèle de sol en mer, utilisable pour des projets géotechniques." E3S Web of Conferences 342 (2022): 01002. http://dx.doi.org/10.1051/e3sconf/202234201002.

Full text
Abstract:
Cet article détaille l’évolution des méthodes de caractérisation géophysique du sous-sol marin en s’appuyant sur une série d’exemples d’acquisition de données EDF. En environnement structural complexe, là où les méthodes géophysiques classiques (Réfraction, MASW, …) ne suffisent pas, EDF utilise de plus en plus l’imagerie par sismique réflexion afin d’accéder au modèle géométrique du sous-sol. Dans un premier temps, les choix d’EDF se sont tournés vers la combinaison de l’imagerie d’un sondeur de sédiments et d’un dispositif sismique plus pénétrant mais également monotrace. Rapidement le constat a été fait que ces dispositifs ne permettaient pas d’obtenir un rapport signal sur bruit suffisant. EDF s’est alors orienté vers des acquisitions sismiques 2D multi-trace et enfin, depuis peu EDF s’intéresse à la réalisation de mini-bloc 3D de très haute résolution. L’apport de ce type de données est sans comparaison en offrant la possibilité de cartographier en 3D les potentiels aléas géologiques impactant les travaux souterrains en mer.
APA, Harvard, Vancouver, ISO, and other styles
6

Zougrana, Adama, Yacouba Zi, Abdoul K. Sanou, and Paul W. Savadogo. "Comparaison de l’effet de deux champignons mycorhiziens arbusculaires sur la croissance et la productivité du sésame (Sesamum indicum L.) au Burkina Faso." International Journal of Biological and Chemical Sciences 16, no. 1 (June 8, 2022): 201–12. http://dx.doi.org/10.4314/ijbcs.v16i1.17.

Full text
Abstract:
L’agriculture conventionnelle caractérisée par une forte utilisation de pesticides et d’engrais chimiques entraine de nombreuses répercussions délétères sur la santé humaine et sur l’environnement notamment la dégradation de la fertilité des sols. Pour atténuer ces effets, l’agriculture biologique basée sur l’utilisation des champignons mycorhiziens arbusculaires pourrait être un modèle alternatif. L’effet de l’inoculation mycorhizienne avec Glomus aggregatum et Rhizophagus irregularis sur la productivité du sésame a été étudié. Les résultats de l’inoculation du sésame avec ces deux souches ont été comparés au témoin non inoculé et au traitement fertilisé au compost dans un dispositif en bloc de Fisher. Les résultats ont montré que l’intensité de mycorhization des plantes de sésame est très faible tout au long du cycle végétatif (de 8,65% à 22,72%). L’inoculation du sésame avec Glomus aggregatum a également eu un effet significatif sur le nombre de capsules (plus de 54 capsules/plante), la biomasse totale et le rendement graine (362,27 Kg ha-1) comparativement au témoin (315,51 Kg ha-1). L’effet de Rhizophagus irregularis en provenance du Sénégal n’a pas été significatif sur tous les paramètres morphologiques du sésame contrairement au témoin naturellement mycorhizé. Les champignons mycorhiziens arbusculaires indigènes présents dans les agroécosystèmes du Burkina Faso induisent donc plus d’effet sur le sésame que la souche de Rhizophagus irregularis provenant du Sénégal.
APA, Harvard, Vancouver, ISO, and other styles
7

Angel, Alejandro. "Réformes fiscales et organisations internationales." Emulations - Revue de sciences sociales, no. 26 (September 25, 2018): 77–88. http://dx.doi.org/10.14428/emulations.026.06.

Full text
Abstract:
Alors qu’il relève traditionnellement des prérogatives des États nationaux, le domaine fiscal ne fut pas épargné par la mondialisation. Les processus décisionnels et les choix des instruments techniques en matière de fiscalité sont perméables aux influences d’acteurs internationaux, en particulier de certaines organisations internationales. Dans cet article, nous nous intéressons au cas de la taxe sur la valeur ajoutée (TVA) et au rôle du Fonds monétaire international (FMI) dans la diffusion planétaire de cet instrument fiscal apparu pour la première fois dans la France d’après-guerre. Nous avançons que cette institution participa à la création d’un modèle standardisé de la TVA pour la rendre plus facilement exportable et transposable à d’autres contextes. Plus précisément, nous détaillons les trois mécanismes – certification, décontextualisation et cadrage – propres au processus de standardisation. Nous montrons d’abord que le FMI s’imposa comme un acteur légitime en matière de réforme fiscale. Nous mettons ensuite en évidence la façon dont cette organisation fit de la TVA un élément incontournable tantôt des réformes d’ajustements structurels proposées aux pays du Sud, tantôt des programmes d’accompagnement vers l’économie de marché suggérés aux pays de l’ancien bloc communiste. En définitive, loin de révéler des tensions entre un FMI potentiellement trop interventionniste et des décideurs nationaux possiblement réticents à toute ingérence supranationale en matière fiscale, notre recherche met au contraire en lumière la collaboration continue entre ces deux niveaux d’acteurs politiques.
APA, Harvard, Vancouver, ISO, and other styles
8

Weinberg, Manfred. "Die deutsche Literatur Prags und der böhmischen Länder – zur aktuellen Neuausrichtung der Forschung." Études Germaniques 297, no. 1 (June 22, 2020): 5–19. http://dx.doi.org/10.3917/eger.297.0005.

Full text
Abstract:
L’article résume la façon dont on se représentait jusqu’à il y a peu l’interculturalité spécifique des pays tchèques et de Prague (comme coexistence de Tchèques, ­d’Allemands et de Juifs) et dont on comprenait couramment, en partie à cause de cette représentation, la littérature allemande de Prague et des Sudètes, conçue comme un bloc. Dans cette représentation, issue de la deuxième conférence de Liblice („ Weltfreunde. Konferenz über die Prager deutsche Literatur “, 1965), tous les auteurs de langue allemande de Prague faisaient figure d’humanistes, tandis que tous les auteurs sudètes étaient réputés nationalistes, chauvins et quasiment préfascistes. Mais ces étiquettes ne correspondaient en fin de compte qu’à l’orientation idéologique des marxistes réunis à Liblice qui pensaient que c’était pour eux le seul moyen d’avoir la possibilité de travailler sur « la littérature allemande de Prague ». Leur modèle a ensuite été adopté par l’ensemble de la germanistique, sans jamais être révisé, même après 1989. L’article corrige ici cette image de la « littérature allemande de Prague » et celle de la littérature allemande des pays tchèques tout entière : en s’appuyant sur les résultats apportés par la recherche et des synthèses récentes, il plaide en faveur de délimitations moins marquées et d’une perception plus nuancée, parce que fondée sur les détails d’une réalité complexe. De là résulte, sur le plan culturel comme régional, une relocalisation de la littérature en langue allemande des pays tchèques à l’intérieur du champ des interactions et des tensions propres aux littératures et aux cultures allemandes, juives, tchèques et habsbourgeoises.
APA, Harvard, Vancouver, ISO, and other styles
9

Kiefer, Bertrand. "Bloc-notes: Modèles de société." Revue Médicale Suisse 62, no. 2506 (2004): 2392. http://dx.doi.org/10.53738/revmed.2004.62.2506.2392.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kim, Yun-Kwan, Won Shin, Chun-Hyon Chang, and Tae-Wan Kim. "Design and Implementation of PS-Block Timing Model Using PS-Block Structue." KIPS Transactions:PartD 13D, no. 3 (June 1, 2006): 399–404. http://dx.doi.org/10.3745/kipstd.2006.13d.3.399.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Bloc modèle"

1

Voiglio, Eric Joseph. "Conservation aérobie des organes : développement d'un modèle de bloc multi-viscéral pour l'étude d'une émulsion de fluorocarbure." Lyon 1, 2000. http://www.theses.fr/2000LYO1T124.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bonvoisin, Frédéric. "Evaluation de la performance des blocs opératoires : du modèle aux indicateurs." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2011. http://tel.archives-ouvertes.fr/tel-00626150.

Full text
Abstract:
Dans leur environnement actuel, les hôpitaux se voient contraints de développer des outils d'évaluation de la performance, et ce principalement dans les secteurs à forte consommation de ressources et à forte valeur ajoutée comme, par exemple, les blocs opératoires. Notre apport est une méthodologie innovante destinée à réduire les lacunes existantes en termes d'évaluation de la performance hospitalière. Cette méthodologie combine une approche pratique avec un outil d'aide à la conception qui vise à générer un système global d'évaluation de la performance utilisable dans les blocs opératoires. Notre méthodologie comporte quatre grandes étapes : détermination de la stratégie et des objectifs, description des processus et identification des inducteurs de performance, définition des plans d'action, établissement des indicateurs de performance et conception des tableaux de bord. Grâce à une approche générique pratique, au respect des étapes de conception et aux outils de développement présentés, cette méthode donne aux gestionnaires de blocs opératoires la capacité de concevoir et de générer un système d'évaluation de la performance (indicateurs, tableaux de bord) qui convient à chaque contexte et répond aux exigences de chaque type d'organisation dans le domaine des soins de santé. Les différentes étapes de cette approche ont été appliquées à un cas réel dans un bloc opératoire de 8 salles. En rendant notre modèle compréhensible et facile à utiliser par les professionnels de la santé, notre collaboration avec les équipes du bloc opératoire et de la direction médicale ont conduit à une réelle appropriation des résultats par l'hôpital.
APA, Harvard, Vancouver, ISO, and other styles
3

Cueff, Guillaume. "Développement d'un modèle thermomécanique du comportement sous agressions thermiques de matériaux cellulosiques : application à l'étude de résistance au feu de panneaux de bloc-porte en aggloméré de bois." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0360/document.

Full text
Abstract:
Dans le cadre de la sécurité incendie, les produits industriels destinés au marché dela construction doivent être soumis à des essais de résistance au feu standardisés. Enparticulier, des critères de température limite à ne pas dépasser sont à satisfaire en face nonexposéedes produits. De plus, une attention est à apporter aux déformations hors plan del’élément testé. Ces essais de résistance au feu peuvent être contraignants et coûteux pour lesindustriels ce qui peut freiner leur démarche de Recherche et Développement. À ce titre, unprogramme de recherche a été lancé par la société EFECTIS France, laboratoire agréé enrésistance au feu, en collaboration avec le laboratoire I2M de l’Université de Bordeaux, dontl'objectif est de mettre au point un outil de simulation numérique d’essais de résistance au feu(four virtuel) appliqué à un bloc-porte en bois et produits dérivés (panneaux de particules etpanneaux de fibres). Le modèle thermomécanique développé prend en compte l’évolution despropriétés thermiques et mécaniques du matériau en fonction de l’avancement des réactionsde vaporisation et de pyrolyse ainsi que l’impact de ces réactions en termes d’énergiesconsommées et fournies. Ce modèle s’appuie notamment sur différents programmesexpérimentaux, comportant entre autre de la mesure de champ par corrélation d’images, dansle but de mesurer les données nécessaires à son bon fonctionnement. En se basant sur lecalcul du champ de température et sur l'estimation des déformations thermiques du bloc-portecoupe-feu, le modèle permet d’évaluer les performances au feu du produit
In the context of fire safety, industrial products used in the building constructionmarket have to satisfy to standard fire resistance tests. In particular, a temperature criterionmust be satisfied on the unexposed side of the product and attention should be given to thedeformation of the product during fire. These tests are restrictive and costly for manufacturerswhich can slow down their R&D program. In this context, a research program was initiatedby the company EFECTIS France in collaboration with the laboratory I2M from theUniversity of Bordeaux whose main objective is to develop a numerical thermomechanicalmodel for simulating a fire resistance test (virtual furnace) on a fire door composed of woodand wood-based materials (particles and fibres boards). Thermomechanical model takes intoaccount the variation of thermal and mechanical properties as a function of vaporization andpyrolysis reactions. Energy impacts of those reactions are also included in the model. Thenumerical model involves experimental data to complete material properties needed for itsutilisation. To achieve this, different experimental programs were carried out, in particularmeasurements using digital image correlation. Based on simulated temperature field andestimation of the global bending of the fire door, the model allows evaluating fireperformances of the product
APA, Harvard, Vancouver, ISO, and other styles
4

Makke, Ali. "Mechanical properties of homogenous polymers and block copolymers : a molecular dynamics simulation approach." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10067/document.

Full text
Abstract:
Les propriétés mécaniques des polymères et des copolymères à blocs ont été étudiées par simulation de type dynamique moléculaire (modèle billes-ressorts). Les échantillons polymères ont été générés par la méthode de « radical like polymerisation ». Ces échantillons ont été soumis à des essais de traction uniaxiaux et triaxiaux dans le but d’étudier leurs réponses mécaniques. Dans la première partie de ce travail on a comparé deux méthodes de traction : « méthode de traction homogène» et la traction « pilotée par les bords » de l’échantillon. Les résultats montrent que les deux méthodes sont équivalentes à faible vitesse de traction. Le changement de distance entre enchevêtrement dans un polymère modèle sous traction est analysé, les résultats montrent que le désenchevêtrèrent des chaines est plus prononcé lorsque la déformation de l’échantillon est uniaxiale du fait de la relaxation latérale de l’échantillon. La nucléation des cavités dans les polymères amorphes soumis à une déformation triaxial a été également étudiée. On a trouvé que les cavités se forment dans des zones qui sont caractérisées par un faible module d’incompressibilité élastique. Ces zones sont identifiables dès le début de la déformation à une température très basse (T~0K). La seconde partie de ce travail se concentre sur la simulation de la réponse mécanique des copolymères à blocs. L’influence de l’architecture moléculaire sur le comportement mécanique de l’échantillon a été analysée. Les résultats montrent que le comportement mécanique des échantillons est piloté par le taux des chaines liantes qui assurent la transmission des contraintes entre les phases. Le flambement des lamelles dans les copolymères à blocs a été également étudié, l’influence de la taille de l’échantillon et de la vitesse de déformation sur la réponse mécanique de l’échantillon a été explorée. Les résultats montrent un changement de mode du flambement selon la vitesse de déformation imposée. Un nouveau modèle qui prend en compte le facteur cinétique du flambement est proposé pour décrire la compétition entre les modes
We use molecular dynamics simulation of a coarse grained model to investigate the mechanical properties of homogenous polymers and lamellar block copolymers. Polymer samples have been generated using “radical like polymerisation” method. These samples were submitted to uniaxial and triaxial tensile tests in order to study their mechanical responses. First we compare two tensile test methods: the “homogenous deformation method” and the “boundary driven deformation method”. We find that the two methods lead to similar results at low strain rate. The change of the entanglement network in polymer sample undergoing a tensile deformation was investigated. We have found that the sample exhibits an increase of its entanglement length in uniaxial deformation test compared to triaxial deformation one. Our finding was interpreted by the pronounced chain disentanglement observed in the uniaxial deformation test due to the lateral relaxation of the sample. The cavity nucleation in amorphous polymers has been also studied. We have found that the cavities nucleate preferentially in zones that exhibit a low elastic bulk modulus. These zones can be identified from the initial undeformed state of the sample at low temperature (T~0K). The second part of the work focused in the simulation of the mechanical response of block copolymers. The influence of chain architecture on the mechanical properties was investigated: our finding reveals an important role of the bridging molecules (cilia chains and knotted loop chains) on the stress transmission between phases at high strain. The initiation of plasticity in copolymer samples was also studied. The role of the buckling has been found to be determinant in the mechanical response of the sample The dependence of the buckling instability with the sample size and the deformation rate was investigated. We have found that the fundamental (first) mode of buckling develops at relatively low strain rate whereas at high strain rate the buckling of the sample occurs with the second or higher mode of buckling. A new model that takes into account the buckling kinetic was developed to describe this competition between the buckling modes
APA, Harvard, Vancouver, ISO, and other styles
5

Moretti, Isabelle. "Modélisation de l'extension intracontinentale : exemple du Golfe de Suez." Paris 11, 1987. http://www.theses.fr/1987PA112056.

Full text
Abstract:
Un fait marquant dans la structure des rifts et des bassins est la différence entre l'extension en surface, qui reste faible, l'amincissement crustal et l'amincissement lithosphérique (2 ou 3 fois plus important). Par ailleurs, la surrection des épaules est un phénomène tardif que le classique modèle d'étirement n'explique pas. Une perturbation thermique peut amincir rapidement la lithosphère, les mouvements crustaux qu'elle induit dépendent de la tectonique régionale. Si elle est extensive, le bassin est large et les épaules d'altitude moyenne. Sinon le graben est étroit et les épaules élevées, c'est le cas du rift Africain. Celui de suez a connu les deux stades, dans un premier temps, il a été couplé aux mouvements de la mer Rouge, mais actuellement l'ouverture du golfe d'Aqaba bloque celle de Suez. En surface cela se traduit par un fort rétrécissement de la largeur du Golfe. Un modèle combinant la propagation d'une anomalie thermique avec des variations de contraintes en surface permet de quantifier ce rétrécissement et la remontée actuelle des épaules. Une étude cinématique de la rotation des blocs permet de situer à 10 km la limite ductile/cassant dans la croute, l'hypothèse d'une ouverture dissymétrique le long de failles plates affectant le Moho parait irréaliste pour le golfe de Suez.
APA, Harvard, Vancouver, ISO, and other styles
6

Afdideh, Fardin. "Block-sparse models in multi-modality : application to the inverse model in EEG/MEG." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT074/document.

Full text
Abstract:
De nombreux phénomènes naturels sont trop complexes pour être pleinement reconnus par un seul instrument de mesure ou par une seule modalité. Par conséquent, le domaine de recherche de la multi-modalité a émergé pour mieux identifier les caractéristiques riches du phénomène naturel de la multi-propriété naturelle, en analysant conjointement les données collectées à partir d’uniques modalités, qui sont en quelque sorte complémentaires. Dans notre étude, le phénomène d’intérêt multi-propriétés est l’activité du cerveau humain et nous nous intéressons à mieux la localiser au moyen de ses propriétés électromagnétiques, mesurables de manière non invasive. En neurophysiologie, l’électroencéphalographie (EEG) et la magnétoencéphalographie (MEG) constituent un moyen courant de mesurer les propriétés électriques et magnétiques de l’activité cérébrale. Notre application dans le monde réel, à savoir le problème de reconstruction de source EEG / MEG, est un problème fondamental en neurosciences, allant des sciences cognitives à la neuropathologie en passant par la planification chirurgicale. Considérant que le problème de reconstruction de source EEG /MEG peut être reformulé en un système d’équations linéaires sous-déterminé, la solution (l’activité estimée de la source cérébrale) doit être suffisamment parcimonieuse pour pouvoir être récupérée de manière unique. La quantité de parcimonie est déterminée par les conditions dites de récupération. Cependant, dans les problèmes de grande dimension, les conditions de récupération conventionnelles sont extrêmement strictes. En regroupant les colonnes cohérentes d’un dictionnaire, on pourrait obtenir une structure plus incohérente. Cette stratégie a été proposée en tant que cadre d’identification de structure de bloc, ce qui aboutit à la segmentation automatique de l’espace source du cerveau, sans utiliser aucune information sur l’activité des sources du cerveau et les signaux EEG / MEG. En dépit du dictionnaire structuré en blocs moins cohérent qui en a résulté, la condition de récupération conventionnelle n’est plus en mesure de calculer la caractérisation de la cohérence. Afin de relever le défi mentionné, le cadre général des conditions de récupération exactes par bloc-parcimonie, comprenant trois conditions théoriques et une condition dépendante de l’algorithme, a été proposé. Enfin, nous avons étudié la multi-modalité EEG et MEG et montré qu’en combinant les deux modalités, des régions cérébrales plus raffinées sont apparues
Three main challenges have been addressed in this thesis, in three chapters.First challenge is about the ineffectiveness of some classic methods in high-dimensional problems. This challenge is partially addressed through the idea of clustering the coherent parts of a dictionary based on the proposed characterisation, in order to create more incoherent atomic entities in the dictionary, which is proposed as a block structure identification framework. The more incoherent atomic entities, the more improvement in the exact recovery conditions. In addition, we applied the mentioned clustering idea to real-world EEG/MEG leadfields to segment the brain source space, without using any information about the brain sources activity and EEG/MEG signals. Second challenge raises when classic recovery conditions cannot be established for the new concept of constraint, i.e., block-sparsity. Therefore, as the second research orientation, we developed a general framework for block-sparse exact recovery conditions, i.e., four theoretical and one algorithmic-dependent conditions, which ensure the uniqueness of the block-sparse solution of corresponding weighted mixed-norm optimisation problem in an underdetermined system of linear equations. The mentioned generality of the framework is in terms of the properties of the underdetermined system of linear equations, extracted dictionary characterisations, optimisation problems, and ultimately the recovery conditions. Finally, the combination of different information of a same phenomenon is the subject of the third challenge, which is addressed in the last part of dissertation with application to brain source space segmentation. More precisely, we showed that by combining the EEG and MEG leadfields and gaining the electromagnetic properties of the head, more refined brain regions appeared
APA, Harvard, Vancouver, ISO, and other styles
7

Laclau, Charlotte. "Hard and fuzzy block clustering algorithms for high dimensional data." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB014.

Full text
Abstract:
Notre capacité grandissante à collecter et stocker des données a fait de l'apprentissage non supervisé un outil indispensable qui permet la découverte de structures et de modèles sous-jacents aux données, sans avoir à \étiqueter les individus manuellement. Parmi les différentes approches proposées pour aborder ce type de problème, le clustering est très certainement le plus répandu. Le clustering suppose que chaque groupe, également appelé cluster, est distribué autour d'un centre défini en fonction des valeurs qu'il prend pour l'ensemble des variables. Cependant, dans certaines applications du monde réel, et notamment dans le cas de données de dimension importante, cette hypothèse peut être invalidée. Aussi, les algorithmes de co-clustering ont-ils été proposés: ils décrivent les groupes d'individus par un ou plusieurs sous-ensembles de variables au regard de leur pertinence. La structure des données finalement obtenue est composée de blocs communément appelés co-clusters. Dans les deux premiers chapitres de cette thèse, nous présentons deux approches de co-clustering permettant de différencier les variables pertinentes du bruit en fonction de leur capacité \`a révéler la structure latente des données, dans un cadre probabiliste d'une part et basée sur la notion de métrique, d'autre part. L'approche probabiliste utilise le principe des modèles de mélanges, et suppose que les variables non pertinentes sont distribuées selon une loi de probabilité dont les paramètres sont indépendants de la partition des données en cluster. L'approche métrique est fondée sur l'utilisation d'une distance adaptative permettant d'affecter à chaque variable un poids définissant sa contribution au co-clustering. D'un point de vue théorique, nous démontrons la convergence des algorithmes proposés en nous appuyant sur le théorème de convergence de Zangwill. Dans les deux chapitres suivants, nous considérons un cas particulier de structure en co-clustering, qui suppose que chaque sous-ensemble d'individus et décrit par un unique sous-ensemble de variables. La réorganisation de la matrice originale selon les partitions obtenues sous cette hypothèse révèle alors une structure de blocks homogènes diagonaux. Comme pour les deux contributions précédentes, nous nous plaçons dans le cadre probabiliste et métrique. L'idée principale des méthodes proposées est d'imposer deux types de contraintes : (1) nous fixons le même nombre de cluster pour les individus et les variables; (2) nous cherchons une structure de la matrice de données d'origine qui possède les valeurs maximales sur sa diagonale (par exemple pour le cas des données binaires, on cherche des blocs diagonaux majoritairement composés de valeurs 1, et de 0 à l’extérieur de la diagonale). Les approches proposées bénéficient des garanties de convergence issues des résultats des chapitres précédents. Enfin, pour chaque chapitre, nous dérivons des algorithmes permettant d'obtenir des partitions dures et floues. Nous évaluons nos contributions sur un large éventail de données simulées et liées a des applications réelles telles que le text mining, dont les données peuvent être binaires ou continues. Ces expérimentations nous permettent également de mettre en avant les avantages et les inconvénients des différentes approches proposées. Pour conclure, nous pensons que cette thèse couvre explicitement une grande majorité des scénarios possibles découlant du co-clustering flou et dur, et peut être vu comme une généralisation de certaines approches de biclustering populaires
With the increasing number of data available, unsupervised learning has become an important tool used to discover underlying patterns without the need to label instances manually. Among different approaches proposed to tackle this problem, clustering is arguably the most popular one. Clustering is usually based on the assumption that each group, also called cluster, is distributed around a center defined in terms of all features while in some real-world applications dealing with high-dimensional data, this assumption may be false. To this end, co-clustering algorithms were proposed to describe clusters by subsets of features that are the most relevant to them. The obtained latent structure of data is composed of blocks usually called co-clusters. In first two chapters, we describe two co-clustering methods that proceed by differentiating the relevance of features calculated with respect to their capability of revealing the latent structure of the data in both probabilistic and distance-based framework. The probabilistic approach uses the mixture model framework where the irrelevant features are assumed to have a different probability distribution that is independent of the co-clustering structure. On the other hand, the distance-based (also called metric-based) approach relied on the adaptive metric where each variable is assigned with its weight that defines its contribution in the resulting co-clustering. From the theoretical point of view, we show the global convergence of the proposed algorithms using Zangwill convergence theorem. In the last two chapters, we consider a special case of co-clustering where contrary to the original setting, each subset of instances is described by a unique subset of features resulting in a diagonal structure of the initial data matrix. Same as for the two first contributions, we consider both probabilistic and metric-based approaches. The main idea of the proposed contributions is to impose two different kinds of constraints: (1) we fix the number of row clusters to the number of column clusters; (2) we seek a structure of the original data matrix that has the maximum values on its diagonal (for instance for binary data, we look for diagonal blocks composed of ones with zeros outside the main diagonal). The proposed approaches enjoy the convergence guarantees derived from the results of the previous chapters. Finally, we present both hard and fuzzy versions of the proposed algorithms. We evaluate our contributions on a wide variety of synthetic and real-world benchmark binary and continuous data sets related to text mining applications and analyze advantages and inconvenients of each approach. To conclude, we believe that this thesis covers explicitly a vast majority of possible scenarios arising in hard and fuzzy co-clustering and can be seen as a generalization of some popular biclustering approaches
APA, Harvard, Vancouver, ISO, and other styles
8

Mohamed, Ahmed Abdeldayem. "Behavior, strength and flexural stiffness of circular concrete columns reinforced with FRP bars and spirals/hoops under eccentric loading." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11406.

Full text
Abstract:
Abstract : Deterioration of concrete structures reinforced with steel bars can be seen daily in regions with aggressive weather as steel-corrosion problems worsen. Fiber-reinforced-polymers (FRP) reinforcement has proven its feasibility through different civil structural elements. Present guidelines for FRP structures in North-America and Europe have not yet handled axially loaded members, due to the lack of research and experiments. This research takes charge of providing experimental database as well as extensive analyses and design recommendations of circular concrete columns reinforced totally with different FRP bars and spirals/hoops (FRP-RC columns). Full-scale columns were tested under monotonic loading with different levels of eccentricity. Test variables included the eccentricity-to-diameter ratio (e/D); reinforcement type (GFRP and CFRP vs. steel); concrete strength; longitudinal and transverse reinforcement ratio; and confinement configuration. All specimens measured 305 mm diameter and 1500 mm height. Test results indicated that specimens reinforced with glass-FRP (GFRP) or carbon-FRP (CFRP) reached their peak strengths with no damages to GFRP or CFRP rebar on either side of specimens. Specimens with CFRP reinforcement (CFRP-RC) behaved very similarly to their steel counterparts, and achieved almost the same nominal axial forces. Specimens with GFRP reinforcement (GFRP-RC) exhibited, however, reduced stiffness and achieved lower nominal axial forces than their steel or CFRP counterparts. Failure of GFRP-RC and CFRP-RC specimens was dominated by concrete crushing at low levels of eccentricity (e/D ratios of 8.2% and 16.4%). Experimental strain results revealed that GFRP bars developed high levels of strains and stresses on the compression and tension sides and hence the GFRP-RC specimens could sustain constant axial load after peak for some time up to the limit of concrete crushing at higher levels of eccentricity (e/D ratios of 8.2% and 16.4%), which help to delay the full damage. At these levels, flexural–tension failure initiated in the GFRP-RC specimens resulting from large axial and lateral deformations and cracks on the tension side until secondary compression failure occurred due to strain limitations in concrete and degradation of the concrete compressive block. The failure of CFRP-RC specimens at higher levels of eccentricity (e/D ratios of 8.2% and 16.4%) was characterized as flexural–compression in which it took place in a less brittle manner. On the other hand, this research also included different studies to analyze the test results, evaluate rebar efficiency, and provide recommendations for analysis and design. It was, therefore, indicated that the axial and flexural capacities of the tested FRP-RC specimens could be reasonably predicted using plane sectional analysis, utilizing the equivalent rectangular stress block (ERSB) parameters given by the ACI 440.1R-15 or CSA S806-12. All predictions underestimated the actual strength with variable levels of conservatism ranged between 1.05 to 1.25 for the GFRP-RC specimens and between 1.20 to 1.40 for the CFRP-RC specimens. These levels were noticeably reduced to critical limits in specimens with high-strength concretes. An elaborate review was made to the available ERSB parameters in the present steel and FRP design standards and guidelines. Modified expressions of the ERSB given in ACI 440.1R-15 and CSA S806-12 were developed. The results indicated good correlation of predicted and measured strength values with enhanced levels of conservatism. Additionally, sets of axial force–bending moment (P-M) interaction diagrams and indicative bar charts are introduced, and recommendations drawn. The compressive-strength contribution of FRP reinforcement was thoroughly reviewed and discussed. The minimum GFRP and CFRP reinforcement ratios to avoid rebar rupturing were broadly examined. Finally, the flexure stiffness (EI) of the tested specimens was analytically determined and compared with the available expressions using experimental and analytical M-ψ responses. Proposed equations are developed and validated against the experimental results to represent the stiffness of GFRP-RC and CFRP-RC columns at service and ultimate levels.
La détérioration des structures en béton armé avec des barres d’armature d’acier peut être observée quotidiennement dans les régions à climat agressif. Le renforcement interne en polymères renforcés de fibres (PRF) a démontré sa faisabilité grâce à différents éléments structuraux en génie civil. Les lignes directrices actuelles pour les structures en béton armé de PRF en Amérique du Nord et en Europe n'ont pas encore gérées les sections soumises à des efforts axiaux excentrique, en raison du manque de recherches et d'expériences. Cette recherche permet d’augmenter la base de données expérimentales ainsi établir des analyses approfondies et des recommandations de conception pour les colonnes circulaires en béton armé complètement renforcées de PRF (barres et spirales). Des grandeur-nature colonnes ont été testées sous charge monotone avec différents niveaux d'excentricité. Les variables de test comprenaient le rapport excentricité / diamètre (e/D) ; le type de renfort (PRFV et PRFC comparativement à l’acier); la résistance du béton en compression; le taux d’armature longitudinal et transversal; et la configuration de l’armature de confinement. Tous les échantillons mesuraient 305 mm de diamètre et 1500 mm de hauteur. Les résultats des tests ont indiqué que les spécimens renforcés avec des PRF de verre ou des PRF de carbone atteignaient leur résistance maximale sans endommager les barres d’armature. Des deux types de renforcement, les spécimens de PRFCCFRP se comportaient de manière très similaire à leurs homologues en acier et atteignaient presque les mêmes résistances axiales. Cependant, les spécimens avec renforcement en PRFV ont présenté une rigidité réduite et des forces axiales nominales inférieures à celles de leurs homologues en acier ou en PRFC. Le mode de rupture des spécimens de PRFC et de PRFV a été dominé par l’écrasement du béton à de faibles niveaux d'excentricité (rapports e/D de 8,2% et 16,4%). Les résultats ont révélé que les barres de PRFV ont développé des niveaux élevés de déformations et de contraintes sur les faces en compression et en tension et, par conséquent, les spécimens de PRFVC pourraient supporter une charge axiale constante après la résistance ultime pendant un certain temps jusqu'à la limite de la rupture en compression du béton du noyau à des niveaux supérieurs d'excentricité (rapport e/D de 8,2% et 16,4%), ce qui contribue à retarder la dégradation. À ces niveaux, une rupture en tension a été initiée dans les spécimens de PRFV résultant à de grandes déformations axiales et latérales et des fissures du côté de la face en tension jusqu'à ce que la rupture en compression du béton. La rupture des spécimens de PRFC à des niveaux supérieurs d'excentricité (rapport e/D de 8,2% et 16,4%) a été caractérisé comme étant en compression du béton dans laquelle il s'est déroulé de manière moins fragile. D'autre part, cette recherche comprenait également différentes études pour analyser les résultats des tests, évaluer l'efficacité des barres d'armature et fournir des recommandations pour l'analyse et la conception. Il a donc été indiqué que les capacités axiales et de flexion des spécimens en PRF testées pourraient être raisonnablement prédites en utilisant une analyse en section plane, en utilisant les paramètres du bloc de contrainte rectangulaire équivalent (BCRE) donnés par l'ACI 440.1R-15 ou la CSA S806- 12. Toutes les prédictions ont sous-estimé la résistance réelle avec des niveaux de variabilité conservateur entre 1,05 et 1,25 pour les spécimens de PRFC et entre 1,20 et 1,40 pour les spécimens de PRFC. Ces niveaux ont été nettement réduits à des limites critiques dans les spécimens avec des bétons à haute résistance. Un examen approfondi a été effectué sur les paramètres du BCRE disponibles dans les normes et les directives de conception actuelles en acier et en PRF. Les expressions modifiées du BCRE fournies dans ACI 440.1R-15 et CSA S806-12 ont été développées. Les résultats indiquent une bonne corrélation entre les valeurs de résistance prédites et mesurées avec des niveaux accrus de conservatisme. La contribution de la résistance à la compression du renforcement en PRF a été soigneusement examinée et discutée. Le taux d’armature minimum de PRFV et de PRFC pour éviter la rupture de l'armature ont été largement examinés. Enfin, la rigidité en flexion (EI) des spécimens testés a été déterminée de manière analytique et comparée aux expressions disponibles dans la littérature en utilisant les réponses expérimentales et analytiques M-ψ. Les expressions modifiées de la rigidité en flexion EI apportées dans l’ACI 440.1R ont été développées et validées.
APA, Harvard, Vancouver, ISO, and other styles
9

Brault, Vincent. "Estimation et sélection de modèle pour le modèle des blocs latents." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Full text
Abstract:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
APA, Harvard, Vancouver, ISO, and other styles
10

Zheng, Wenjie. "A distributed Frank-Wolfe framework for trace norm minimization via the bulk synchronous parallel model." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS049/document.

Full text
Abstract:
L'apprentissage des matrices de rang faible est un problème de grande importance dans les statistiques, l'apprentissage automatique, la vision par ordinateur et les systèmes de recommandation. En raison de sa nature NP-difficile, une des approches principales consiste à résoudre sa relaxation convexe la plus étroite : la minimisation de la norme de trace. Parmi les différents algorithmes capables de résoudre cette optimisation, on peut citer la méthode de Frank-Wolfe, particulièrement adaptée aux matrices de grande dimension. En préparation à l'utilisation d'infrastructures distribuées pour accélérer le calcul, cette étude vise à explorer la possibilité d'exécuter l'algorithme de Frank-Wolfe dans un réseau en étoile avec le modèle BSP (Bulk Synchronous Parallel) et à étudier son efficacité théorique et empirique. Concernant l'aspect théorique, cette étude revisite le taux de convergence déterministe de Frank-Wolfe et l'étend à des cas non déterministes. En particulier, il montre qu'avec le sous-problème linéaire résolu de manière appropriée, Frank-Wolfe peut atteindre un taux de convergence sous-linéaire à la fois en espérance et avec une probabilité élevée. Cette contribution pose la fondation théorique de l'utilisation de la méthode de la puissance itérée ou de l'algorithme de Lanczos pour résoudre le sous-problème linéaire de Frank-Wolfe associé à la minimisation de la norme de trace. Concernant l'aspect algorithmique, dans le cadre de BSP, cette étude propose et analyse quatre stratégies pour le sous-problème linéaire ainsi que des méthodes pour la recherche linéaire. En outre, remarquant la propriété de mise à jour de rang-1 de Frank-Wolfe, il met à jour le gradient de manière récursive, avec une représentation dense ou de rang faible, au lieu de le recalculer de manière répétée à partir de zéro. Toutes ces conceptions sont génériques et s'appliquent à toutes les infrastructures distribuées compatibles avec le modèle BSP. Concernant l'aspect empirique, cette étude teste les conceptions algorithmiques proposées dans un cluster Apache SPARK. Selon les résultats des expériences, pour le sous-problème linéaire, la centralisation des gradients ou la moyenne des vecteurs singuliers est suffisante dans le cas de faible dimension, alors que la méthode de la puissance itérée distribuée, avec aussi peu qu'une ou deux itérations par époque, excelle dans le cas de grande dimension. La librairie Python développée pour les expériences est modulaire, extensible et prête à être déployée dans un contexte industriel. Cette étude a rempli sa fonction de preuve de concept. Suivant le chemin qu'il met en place, des solveurs peuvent être implémentés pour différentes infrastructures, parmi lesquelles des clusters GPU, pour résoudre des problèmes pratiques dans des contextes spécifiques. En outre, ses excellentes performances dans le jeu de données ImageNet le rendent prometteur pour l'apprentissage en profondeur
Learning low-rank matrices is a problem of great importance in statistics, machine learning, computer vision, recommender systems, etc. Because of its NP-hard nature, a principled approach is to solve its tightest convex relaxation : trace norm minimization. Among various algorithms capable of solving this optimization is the Frank-Wolfe method, which is particularly suitable for high-dimensional matrices. In preparation for the usage of distributed infrastructures to further accelerate the computation, this study aims at exploring the possibility of executing the Frank-Wolfe algorithm in a star network with the Bulk Synchronous Parallel (BSP) model and investigating its efficiency both theoretically and empirically. In the theoretical aspect, this study revisits Frank-Wolfe's fundamental deterministic sublinear convergence rate and extends it to nondeterministic cases. In particular, it shows that with the linear subproblem appropriately solved, Frank-Wolfe can achieve a sublinear convergence rate both in expectation and with high probability. This contribution lays the theoretical foundation of using power iteration or Lanczos iteration to solve the linear subproblem for trace norm minimization. In the algorithmic aspect, within the BSP model, this study proposes and analyzes four strategies for the linear subproblem as well as methods for the line search. Moreover, noticing Frank-Wolfe's rank-1 update property, it updates the gradient recursively, with either a dense or a low-rank representation, instead of repeatedly recalculating it from scratch. All of these designs are generic and apply to any distributed infrastructures compatible with the BSP model. In the empirical aspect, this study tests the proposed algorithmic designs in an Apache SPARK cluster. According to the experiment results, for the linear subproblem, centralizing the gradient or averaging the singular vectors is sufficient in the low-dimensional case, whereas distributed power iteration, with as few as one or two iterations per epoch, excels in the high-dimensional case. The Python package developed for the experiments is modular, extensible and ready to deploy in an industrial context. This study has achieved its function as proof of concept. Following the path it sets up, solvers can be implemented for various infrastructures, among which GPU clusters, to solve practical problems in specific contexts. Besides, its excellent performance in the ImageNet dataset makes it promising for deep learning
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Bloc modèle"

1

author, Palombarini Stefano, ed. L'illusion du bloc bourgeois: Alliances sociales et avenir du modèle français. Paris: Raisons d'agir éditions, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Robert, Scollay, Bora Bijit, and United Nations Conference on Trade and Development., eds. Assessing regional trading arrangements in the Asia-Pacific. New York: United Nations, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Frankel, Jeffrey A. Trade blocs and currency blocs. Cambridge, MA: National Bureau of Economic Research, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Frankel, Jeffrey A. Trade blocs and currency blocs. Cambridge, Mass: National Bureau of Economic Research, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Block designs. 2nd ed. Milton Keynes: Open University, 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Luters, Ginger. Module magic: Creative projects to knit 1 block at a time. Sioux Falls, S.D: XRX, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Luters, Ginger. Module magic: Creative projects to knit 1 block at a time. Sioux Falls, S.D: XRX, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

1974-, Sykes Tom, ed. Blow by Blow: The story of Isabella Blow. London: HarperCollins, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Anastassakis, Georgios N. Hydrodynamic modeling and optimization of processes in flotation cells with external air-blow. [New York]: Knovel, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Hossain, Mohammad Amir. Planning a training module appropraite to the needs of female block supervisors in Bangladesh. Wolverhampton: University of Wolverhampton, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Bloc modèle"

1

Meier, Lukas. "Incomplete Block Designs." In ANOVA and Mixed Models, 165–78. Boca Raton: Chapman and Hall/CRC, 2022. http://dx.doi.org/10.1201/9781003146216-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Meier, Lukas. "Complete Block Designs." In ANOVA and Mixed Models, 109–18. Boca Raton: Chapman and Hall/CRC, 2022. http://dx.doi.org/10.1201/9781003146216-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Meisenheimer, Wolfgang. "Ernst Bloch." In Modelle als Denkräume, Beispiele und Ebenbilder, 52–55. Wiesbaden: Springer Fachmedien Wiesbaden, 2018. http://dx.doi.org/10.1007/978-3-658-20115-9_9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Wackernagel, Hans. "Kriging with Discrete Point-Bloc Models." In Multivariate Geostatistics, 273–79. Berlin, Heidelberg: Springer Berlin Heidelberg, 2003. http://dx.doi.org/10.1007/978-3-662-05294-5_36.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Woo, Sanghyun, Jongchan Park, Joon-Young Lee, and In So Kweon. "CBAM: Convolutional Block Attention Module." In Computer Vision – ECCV 2018, 3–19. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-01234-2_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Madhyastha, N. R. Mohan, S. Ravi, and A. S. Praveena. "Block Designs." In A First Course in Linear Models and Design of Experiments, 43–104. Singapore: Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-8659-0_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Won, Chee Sun, and Robert M. Gray. "Block-Wise Markov Models." In Stochastic Image Processing, 125–48. Boston, MA: Springer US, 2004. http://dx.doi.org/10.1007/978-1-4419-8857-7_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Li, Quan-Lin. "Block-Structured Markov Chains." In Constructive Computation in Stochastic Models with Applications, 72–130. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11492-2_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Govaert, Gérard, and Mohamed Nadif. "Block Bernoulli Parsimonious Clustering Models." In Selected Contributions in Data Analysis and Classification, 203–12. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-73560-1_19.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Patel, R. S., W. Zhang, G. D. Moggridge, and J. J. C. Busfield. "Oxidation and ageing in block copolymers." In Constitutive Models for Rubber XII, 427–33. London: CRC Press, 2022. http://dx.doi.org/10.1201/9781003310266-70.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Bloc modèle"

1

Letychevsky, O., V. Peschanenko, V. Radchenko, M. Poltoratzkyi, P. Kovalenko, and S. Mogylko. "Formal Verification of Token Economy Models." In 2019 IEEE International Conference on Blockchain and Cryptocurrency (ICBC). IEEE, 2019. http://dx.doi.org/10.1109/bloc.2019.8751318.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"GENOME HALVING BY BLOCK INTERCHANGE." In International Conference on Bioinformatics Models, Methods and Algorithms. SciTePress - Science and and Technology Publications, 2012. http://dx.doi.org/10.5220/0003757200580065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Pierce, Matthew, Peter Stonestreet, Cristián Orrego, David Tennant, Tryana Garza-Cruz, Jason Furtney, and Chris Thielsen. "Development of rock mass strength block models at Cadia East mine." In Caving 2022: Fifth International Conference on Block and Sublevel Caving. Australian Centre for Geomechanics, Perth, 2022. http://dx.doi.org/10.36487/acg_repo/2205_71.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Grindheim, Bjarte, C. C. Li, and A. H. Høien. "Large scale laboratory block model tests simulating rock mass uplift failure." In The IV Nordic Symposium on Rock Mechanics and Rock Engineering. Jarðtæknifélag Íslands og Jarðgangafélag Íslands, 2023. http://dx.doi.org/10.33112/nrock2023.13.

Full text
Abstract:
"Rock anchors are high-capacity reinforcement measures used to stabilise large-scale infrastructure. There are four main failure mechanisms for rock anchors, which are: (1) rock mass uplift failure; (2) grout-rock interface failure; (3) tendon-grout interface failure; and (4) steel tendon tensile failure. A large-scale laboratory test rig has been developed to test block models which simulates rock mass uplift failure (failure mode 1). The design methods against failure mode 1 are the most conservative and least satisfactory design methods according to literature. The full-field displacements of the models were monitored with digital image correlation (DIC). The block model tests had higher capacities than what was calculated with the current design methods using the weight of overlying rock cone and presumptive shear strength values along the assumed failure cone. The capacity and failure shape in the block models showed to be structurally dependent on the block model pattern. The horizontal stress in the models increased during the tests, which showed that load arches were induced in the block models during the uplift. The load capacity of the block models increased with model height and horizontal stress level."
APA, Harvard, Vancouver, ISO, and other styles
5

Rein, Andre, Carsten Rudolph, Jose Fran Ruiz, and Marcos Arjona. "Introducing Security Building Block Models." In 2012 ASE/IEEE International Conference on BioMedical Computing (BioMedCom). IEEE, 2012. http://dx.doi.org/10.1109/biomedcom.2012.28.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Jia, Lifeng, Clement Yu, and Weiyi Meng. "Faceted models of blog feeds." In the 22nd ACM international conference. New York, New York, USA: ACM Press, 2013. http://dx.doi.org/10.1145/2505515.2505657.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gribel, Daniel, Thibaut Vidal, and Michel Gendreau. "Assortative-Constrained Stochastic Block Models." In 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021. http://dx.doi.org/10.1109/icpr48806.2021.9413275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Wernik, Cezary, and Grzegorz Ulacha. "New Approach to Audio Lossless Block Encoding." In 2018 23rd International Conference on Methods & Models in Automation & Robotics (MMAR). IEEE, 2018. http://dx.doi.org/10.1109/mmar.2018.8486050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

KAVSAOGLU, Ahmet Resit, ve Hulya DEMIR, and Havva SUNGUR. "Heating/Cooling Block System Design with Thermoelectric Module." In 2020 Medical Technologies Congress (TIPTEKNO). IEEE, 2020. http://dx.doi.org/10.1109/tiptekno50054.2020.9299259.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kim, Youngmin, Keehoon Hong, Jiwoon Yeom, Jisoo Hong, and Byoungho Lee. "Optical block module for autostereoscopic three-dimensional display." In Digital Holography and Three-Dimensional Imaging. Washington, D.C.: OSA, 2012. http://dx.doi.org/10.1364/dh.2012.dsu1c.4.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Bloc modèle"

1

Hasanov, Fakhri, Heyran Aliyeva, Majed Almozaini, and Carlo Andrea Bollino. Extended KGEMM’s Emission Block With Carbon Pricing. King Abdullah Petroleum Studies and Research Center, March 2024. http://dx.doi.org/10.30573/ks--2024-mp01.

Full text
Abstract:
This methodological work develops a representation of carbon pricing through the KAPSARC Global Energy Macroeconometric Model (KGEMM). This representation makes two principal contributions in terms of model capabilities: establishing a feedback link from the emissions block to the energy block and connecting the emissions block to the fiscal block, as the government collects revenue from the carbon dioxide emitted by customers / sectors.
APA, Harvard, Vancouver, ISO, and other styles
2

Chapman, Ray, Phu Luong, Sung-Chan Kim, and Earl Hayter. Development of three-dimensional wetting and drying algorithm for the Geophysical Scale Transport Multi-Block Hydrodynamic Sediment and Water Quality Transport Modeling System (GSMB). Engineer Research and Development Center (U.S.), July 2021. http://dx.doi.org/10.21079/11681/41085.

Full text
Abstract:
The Environmental Laboratory (EL) and the Coastal and Hydraulics Laboratory (CHL) have jointly completed a number of large-scale hydrodynamic, sediment and water quality transport studies. EL and CHL have successfully executed these studies utilizing the Geophysical Scale Transport Modeling System (GSMB). The model framework of GSMB is composed of multiple process models as shown in Figure 1. Figure 1 shows that the United States Army Corps of Engineers (USACE) accepted wave, hydrodynamic, sediment and water quality transport models are directly and indirectly linked within the GSMB framework. The components of GSMB are the two-dimensional (2D) deep-water wave action model (WAM) (Komen et al. 1994, Jensen et al. 2012), data from meteorological model (MET) (e.g., Saha et al. 2010 - http://journals.ametsoc.org/doi/pdf/10.1175/2010BAMS3001.1), shallow water wave models (STWAVE) (Smith et al. 1999), Coastal Modeling System wave (CMS-WAVE) (Lin et al. 2008), the large-scale, unstructured two-dimensional Advanced Circulation (2D ADCIRC) hydrodynamic model (http://www.adcirc.org), and the regional scale models, Curvilinear Hydrodynamics in three dimensions-Multi-Block (CH3D-MB) (Luong and Chapman 2009), which is the multi-block (MB) version of Curvilinear Hydrodynamics in three-dimensions-Waterways Experiments Station (CH3D-WES) (Chapman et al. 1996, Chapman et al. 2009), MB CH3D-SEDZLJ sediment transport model (Hayter et al. 2012), and CE-QUAL Management - ICM water quality model (Bunch et al. 2003, Cerco and Cole 1994). Task 1 of the DOER project, “Modeling Transport in Wetting/Drying and Vegetated Regions,” is to implement and test three-dimensional (3D) wetting and drying (W/D) within GSMB. This technical note describes the methods and results of Task 1. The original W/D routines were restricted to a single vertical layer or depth-averaged simulations. In order to retain the required 3D or multi-layer capability of MB-CH3D, a multi-block version with variable block layers was developed (Chapman and Luong 2009). This approach requires a combination of grid decomposition, MB, and Message Passing Interface (MPI) communication (Snir et al. 1998). The MB single layer W/D has demonstrated itself as an effective tool in hyper-tide environments, such as Cook Inlet, Alaska (Hayter et al. 2012). The code modifications, implementation, and testing of a fully 3D W/D are described in the following sections of this technical note.
APA, Harvard, Vancouver, ISO, and other styles
3

Tkachuk, Viktoriia V., Vadym P. Shchokin, and Vitaliy V. Tron. The Model of Use of Mobile Information and Communication Technologies in Learning Computer Sciences to Future Professionals in Engineering Pedagogy. [б. в.], November 2018. http://dx.doi.org/10.31812/123456789/2668.

Full text
Abstract:
Research goal: the research is aimed at developing a model of use of mobile ICT in learning Computer Sciences to future professionals in Engineering Pedagogy. Object of research is the model of use of mobile ICT in learning Computer Sciences to future professionals in Engineering Pedagogy. Results of the research: the developed model of use of mobile ICT as tools of learning Computer Sciences to future professionals in Engineering Pedagogy is based on the competency-based, person-centered and systemic approaches considering principles of vocational education, general didactic principles, principles of Computer Science learning, and principles of mobile learning. It also takes into account current conditions and trends of mobile ICT development. The model comprises four blocks: the purpose-oriented block, the content-technological block, the diagnostic block and the result-oriented block. According to the model, the learning content of Computer Sciences consists of 5 main units: 1) Fundamentals of Computer Science; 2) Architecture of Modern Computers; 3) Fundamentals of Algorithmization and Programming; 4) Software of Computing Systems; 5) Computer Technologies in the Professional Activity of Engineer-pedagogues.
APA, Harvard, Vancouver, ISO, and other styles
4

Smokler, M. User handbook for Block V silicon solar cell modules. Office of Scientific and Technical Information (OSTI), May 1985. http://dx.doi.org/10.2172/5701724.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Sentcоv, Valentin, Andrei Reutov, and Vyacheslav Kuzmin. Electronic training manual "Particular issues of toxicology for anesthesiologists and resuscitators". SIB-Expertise, January 2024. http://dx.doi.org/10.12731/er0779.29012024.

Full text
Abstract:
This series presents the conditions most frequently encountered in the structure of acute poisoning. The relevance is justified by the high lethality of these poisonings and the frequency of spread among the working population. Competent and timely diagnosis, hospitalization in a specialized hospital and previously started treatment greatly increases the patient’s chances of life and its further quality. This electronic educational resourse consists of nine theoretical educational modules: general issues of clinical toxicology, poisoning with barbituric acid derivatives, opioid poisoning, clonidine poisoning, ethanol poisoning, methanol poisoning, ethylene glycol poisoning, vinegar essence poisoning, positional compression syndrome. The theoretical block of modules is presented by presentations, the text of lectures with illustrations. Control classes in the form of test control accompany each theoretical module. After studying all modules, the student passes the final test control. Mastering the electronic educational resourse will ensure a high level of readiness for the provision of specialized toxicological care by resident anesthesiologists-resuscitators and doctors of various specialties.
APA, Harvard, Vancouver, ISO, and other styles
6

Sentcоv, Valentin, Andrei Reutov, and Vyacheslav Kuzmin. Electronic training manual "Acute drug poisoning". SIB-Expertise, January 2024. http://dx.doi.org/10.12731/er0776.29012024.

Full text
Abstract:
The widespread use in modern medicine of hypnotics, sedatives, tricyclic antidepressants, antihypertensive drugs and antipyretics, even in therapeutic dosages, sometimes leads to adverse consequences for the patient. Accidental or intentional excess of therapeutic dosages leads to severe poisoning. This fact indicates the high relevance of doctors’ knowledge of any clinical specialty and the treatment of poisoning by these groups of drugs. This electronic educational resourse consists of six theoretical educational modules: poisoning with barbituric acid derivatives, acute poisoning with tricyclic antidepressants, acute poisoning with beta-blockers, poisoning with clonidine, acute poisoning with anti-tuberculosis drugs, acute poisoning with paracetamol. The theoretical block of modules is presented by presentations, the text of lectures with illustrations. Control classes in the form of test control accompany each theoretical module. After studying all modules, the student passes the final test control. Mastering the electronic educational resourse will ensure a high level of readiness to provide specialized toxicological care by doctors of various specialties.
APA, Harvard, Vancouver, ISO, and other styles
7

Menzio, Guido, and Shouyong Shi. Block Recursive Equilibria for Stochastic Models of Search on the Job. Cambridge, MA: National Bureau of Economic Research, April 2009. http://dx.doi.org/10.3386/w14907.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sentcоv, Valentin, Andrei Reutov, and Vyacheslav Kuzmin. Electronic training manual "Acute poisoning with gaseous toxicants". SIB-Expertise, January 2024. http://dx.doi.org/10.12731/er0775.29012024.

Full text
Abstract:
The widespread use of dichloroethane, hydrogen tetrachloride, trichlorethylene in various sectors of modern industry and the high (up to 50%) mortality rate in case of poisoning with these toxicants indicate the need for increased attention to the understanding and treatment of poisonings with these toxicants. The very widespread use of chlorine and ammonia in large cities for various activities creates an increased risk to the health of the population of large and small cities and towns. This electronic educational resourse consists of six theoretical educational modules: acute poisoning with dichloroethane, acute poisoning with carbon tetrachloride, acute poisoning with trichlorethylene, acute poisoning with chlorine, acute poisoning with ammonia, acute injuries with irritants. The theoretical block of modules is presented by presentations, the text of lectures with illustrations. Control classes in the form of test control accompany each theoretical module. After studying all modules, the student passes the final test control. Mastering the electronic educational resourse will ensure a high level of readiness to provide specialized toxicological care by doctors of various specialties.
APA, Harvard, Vancouver, ISO, and other styles
9

Patwa, B., P. L. St-Charles, G. Bellefleur, and B. Rousseau. Predictive models for first arrivals on seismic reflection data, Manitoba, New Brunswick, and Ontario. Natural Resources Canada/CMSS/Information Management, 2022. http://dx.doi.org/10.4095/329758.

Full text
Abstract:
First arrivals are the primary waves picked and analyzed by seismologists to infer properties of the subsurface. Here we try to solve a problem in a small subsection of the seismic processing workflow: first break picking of seismic reflection data. We formulate this problem as an image segmentation task. Data is preprocessed, cleaned from outliers and extrapolated to make the training of deep learning models feasible. We use Fully Convolutional Networks (specifically UNets) to train initial models and explore their performance with losses, layer depths, and the number of classes. We propose to use residual connections to improve each UNet block and residual paths to solve the semantic gap between UNet encoder and decoder which improves the performance of the model. Adding spatial information as an extra channel helped increase the RMSE performance of the first break predictions. Other techniques like data augmentation, multitask loss, and normalization methods, were further explored to evaluate model improvement.
APA, Harvard, Vancouver, ISO, and other styles
10

LVOVICH, Ya Ye, A. P. PREOBRAZHENSKIY, and Yu P. PREOBRAZHENSKIY. DEVELOPMENT OF AN OPTIMIZATION MODEL OF A SYSTEM FOR PROVIDING DISTRIBUTED TRANSPORT SERVICES. Science and Innovation Center Publishing House, April 2022. http://dx.doi.org/10.12731/2227-930x-2022-12-1-2-24-33.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography