Добірка наукової літератури з теми "Calcul Haut Débit"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Calcul Haut Débit".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Calcul Haut Débit"

1

Belleville, Arnaud, Federico Garavaglia, Damien Sevrez, Véronique Mary, Aloïs Tilloy, Didier Scopel, and Hélène Combes. "Réanalyse des chroniques patrimoniales de débit. Évaluation de l'impact et valorisation." La Houille Blanche, no. 5-6 (October 2018): 29–35. http://dx.doi.org/10.1051/lhb/2018048.

Повний текст джерела
Анотація:
L'archivage d'une série de débit en base de données à l'issue d'une phase de validation et de critique est souvent considéré par l'hydromètre comme l'étape finale du processus de production de données. Cependant, lors de la valorisation ultérieure de ces données dans le cadre d'études hydrologiques, de nouveaux éléments de connaissance relatifs à la station hydrométrique (jaugeages haut débit, modélisation hydraulique, etc.) peuvent être disponibles et conduire à se réinterroger sur la nécessité d'actualiser le calcul des débits via la mise à jour des courbes de tarage. De même, une mise en perspective historique des différentes pratiques des producteurs de données met en évidence une hétérogénéité dans le processus d'élaboration des données. La présente communication propose une méthodologie pour réanalyser les chroniques patrimoniales de débit, de manière à proposer des séries homogènes et moins biaisées. Cette méthodologie est ensuite appliquée à un échantillon de 60 stations hydrométriques. Il ressort de cette étude qu'aucune tendance nette n'est mise en évidence sur les écarts en volume et en crue entre les séries réanalysées et les séries historiques, mais des corrections peuvent néanmoins être sensibles dans certains cas. Un cas d'application est enfin détaillé pour mettre en évidence les impacts potentiels de la réanalyse des chroniques de débit sur la détermination des débits extrêmes. En perspectives, une réflexion peut être menée sur le rôle du producteur de données vis-à-vis de l'hydrologue utilisant ces données, sur l'intérêt d'inscrire ces réanalyses de chroniques dans une démarche pérenne et systématique. La question de la valorisation et la traçabilité de telles études est également posée.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Vasselon, V., F. Rimet, I. Domaizon, O. Monnier, Y. Reyjol, and A. Bouchez. "Évaluer la pollution des milieux aquatiques avec l’ADN des diatomées : où en sommes-nous ?" Techniques Sciences Méthodes, no. 5 (May 2019): 53–70. http://dx.doi.org/10.1051/tsm/201905053.

Повний текст джерела
Анотація:
L’évaluation de l’état écologique des cours d’eau repose sur le calcul d’indices de qualité basés sur la sensibilité de certains groupes biologiques, dont les diatomées, à la pollution. La détermination et la quantification des espèces de diatomées reposent généralement sur des méthodes d’identification morphologique en microscopie qui peuvent paraître complexes, chronophages et relativement onéreuses. Au cours de la dernière décennie, une nouvelle méthode de biologie moléculaire basée sur l’ADN a été développée, permettant d’identifier les espèces sur la base de critères génétiques plutôt que sur des critères morphologiques : le métabarcoding. En combinaison avec les technologies de séquençage à haut débit, le métabarcoding permet d’identifier l’ensemble des espèces présentes au sein d’un échantillon environnemental et de traiter plusieurs centaines d’échantillons en parallèle. Cet article présente les résultats de deux études récentes menées sur les cours d’eau de Mayotte (2013-2018) et de France métropolitaine (2016-2018), visant à tester le potentiel d’application du métabarcoding pour la bio-indication au sens de la directive cadre sur l’eau (DCE). Nous abordons les différents développements méthodologiques et optimisations qui ont été réalisés pour fiabiliser les inventaires taxonomiques de diatomées produits en métabarcoding, notamment en matière de quantification des espèces basée sur l’abondance relative des séquences ADN. Nous présentons ensuite les résultats d’application de l’approche moléculaire pour l’évaluation de l’état écologique de plus de 500 sites de cours d’eau nationaux, en les confrontant avec les résultats obtenus via l’approche classique en morphologie. Finalement, nous discutons du potentiel d’application en routine du métabarcoding à l’échelle des réseaux de surveillance des cours d’eau, de ses limites d’application et proposons certaines recommandations pour une future implémentation complémentaire à l’approche morphologique actuellement prescrite dans les arrêtés réglementaires.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Barget, Eric, and Jean-Jacques Gouguet. "De l’importance des dépenses des spectateurs étrangers dans l’impact touristique des grands événements sportifs." Téoros 30, no. 2 (September 7, 2012): 105–19. http://dx.doi.org/10.7202/1012247ar.

Повний текст джерела
Анотація:
De nombreuses études d’impact économique ont été commanditées afin de vérifier que les grands événements sportifs peuvent influer sur le niveau d’activité économique du territoire hôte. L’attraction de nombreux touristes est le plus souvent placée au centre de l’analyse. Néanmoins, ces travaux font toujours l’objet de multiples controverses. En effet, de redoutables problèmes méthodologiques se posent pour effectuer un tel calcul, et les résultats doivent être interprétés avec beaucoup de précautions. Nous avons essayé d’éviter les principaux biais liés au calcul d’impact pour élaborer une évaluation la plus fiable possible d’un méga-événement sportif. En utilisant la théorie de la base et en collectant une information de qualité sur le terrain, nous nous sommes efforcés d’éviter les erreurs les plus communes. Nous avons choisi la Coupe du monde de rugby 2007, en France, pour illustrer ce débat. Les spectateurs étrangers sont à l’origine de l’essentiel du montant de l’impact économique sur les régions françaises, avec de grandes différences selon leurs nationalités et leurs profils sociodémographiques. Il apparaît ainsi que l’impact régional de la manifestation est d’autant plus fort que les parties accueillies ont attiré beaucoup de spectateurs étrangers, dotés d’un haut niveau de revenus et de dépenses. Des enseignements peuvent être tirés d’un tel résultat pour les organisateurs qui veulent accueillir un grand événement sportif.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

LE ROY, P., H. CHAPUIS, and D. GUÉMENÉ. "Sélection génomique : quelles perspectives pour les filières avicoles ?" INRAE Productions Animales 27, no. 5 (December 12, 2014): 331–36. http://dx.doi.org/10.20870/productions-animales.2014.27.5.3080.

Повний текст джерела
Анотація:
La sélection génomique repose sur l’évaluation des valeurs génétiques des candidats à la sélection par un « score moléculaire » calculé d’après leurs génotypes en un très grand nombre de marqueurs de l’ADN. Dans une première étape, les effets des marqueurs sont estimés sur une population de référence génotypée et phénotypée pour les caractères à améliorer. La table des valeurs génotypiques ainsi établie est utilisée pour calculer les valeurs génétiques des candidats au cours des générations suivantes, qui peuvent alors n’être que génotypées. En quelques années, cette stratégie a été mise en place chez les bovins laitiers. Les opérateurs de la sélection dans les autres filières animales ont assisté à cette révolution et se posent légitimement la question de l’intérêt pour eux d’entrer dans cette démarche. La disponibilité d’une puce « poule » de 600k SNP permet d’ores et déjà d’appliquer une sélection génomique dans les filières poule pondeuse et poulet de chair. Pour les autres espèces avicoles, les outils de génotypage à haut débit sont en cours de développement. Quelle que soit l’espèce, trois composantes du progrès génétique peuvent être améliorées. L’intensité de sélection peut être augmentée pour les caractères non mesurables en routine (qualités des produits, efficacité alimentaire, résistance aux maladies). La précision des valeurs génétiques peut être augmentée, notamment pour les mâles dans le cas des caractères exprimés uniquement par les femelles. Enfin, l’intervalle de génération peut être diminué grâce à une évaluation précoce des candidats, notamment en sélection des poules pondeuses. Par ailleurs, l’évaluation génomique offre pour la première fois la possibilité de sélectionner des individus de race pure de l’étage de sélection pour leur valeur en croisement et dans le milieu de production. Les coûts de mise en oeuvre de la sélection génomique sont élevés, en raison de la taille de la population de référence nécessaire à une évaluation précise, du nombre élevé de candidats à génotyper et de la variété des populations à sélectionner. Toutefois, chez les volailles, l’énorme diffusion des reproducteurs pourrait permettre de compenser ces coûts.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Poznanski, Thaddée. "Loi modifiant la loi des accidents du travail." Commentaires 22, no. 4 (April 12, 2005): 558–65. http://dx.doi.org/10.7202/027838ar.

Повний текст джерела
Анотація:
Le Bill 79 modifiant la Loi (québécoise) des accidents du travail a été sanctionné le 12 août 1967 et est entré en vigueur le même jour, mais plusieurs dispositions essentielles de la nouvelle loi ne prennent effet qu'à compter du 1er septembre 1967. Les changements principaux apportés par ce Bill concernent l'amélioration des prestations versées aux accidentés et à leurs survivants; ceci non seulement pour les accidents qui surviendront à compter du 1er septembre 1967, mais aussi celles versées présentement pour les accidents antérieurs à cette date. Mentionnons, cependant, que pour les accidents survenus à compter du 1er septembre 1967 la limite du salaire annuel compensable est haussée à $6,000, cette limite n'étant avant cette date que de $5,000 et cela à partir du 1er janvier 1960 ($4,000 à partir du 1er janvier 1955, $3,000 à partir du 1er février 1952, $2,500 à partir du 1er juillet 1947 et $2,000 depuis 1931 — l'année d'entrée en vigueur de la Loi des accidents du travail). Pour saisir l'importance de la modification du plafond des salaires compensables de $5,000 à $6,000, on peut mentionner qu'en 1966 presque 40% des accidentés ayant droit à une prestation pécuniaire ont eu un salaire dépassant la limite de $5,000, et dans quelques classes de risque le pourcentage en question dépasse 75% (par exemple: aciéries, etc.). Pour les accidentés d'avant le 1er septembre 1967 le salaire compensable reste le même que lors de l'accident (« gains moyens pendant les douze mois précédant l'accident si son emploi a duré au moins douze mois, ou de ses gains moyens au cours de toute autre période moindre pendant laquelle il a été au service de son employeur »),avec les limites alors en vigueur, même si le salaire effectif de l'accidenté (calculé de la manière précitée) dépassait la limite en question. Mais déjà lors de la revalorisation des rentes effectuée en 1964 (avec effet du 1er octobre 1964) on a tenu compte, dans une certaine mesure, des modifications successives du plafond et les pourcentages ajoutés aux montants des rentes des accidentés d'antan sont basées justement sur l'échelle de ces plafonds et leurs relations. Toutefois, dans l’intention de vouloir couvrir la capitalisation des majorations dues à la revalorisation par le fonds disponible, on s'est vu obligé de n'accorder que 40% de l'augmentation; ainsi, par exemple, pour les accidents des années 1931-1947, quand la limite des salaires compensables était de $2,000 par année, la revalorisation accordée en 1964 était de 60%, tandis que le plafond a augmenté de 150%, à savoir de $2,000 à $5,000; de la même façon, les rentes pour les accidents survenus entre le 30 juin 1947 et le 1er février 1952 ont été augmentées de 40% et celles pour les accidents survenus entre le 31 janvier 1952 et le 1er janvier 1955 de 27% et celles des années 1955-1959 de 10%. La revalorisation prévue présentement, par le Bill 79, est basée sur d'autres principes que celle effectuée en 1964. En premier lieu, il est à noter que lors de la revalorisation en 1964 on n'a pas tenu compte, du moins explicitement, du fait que les rentes des bénéficiaires dont les accidents datent d'avant 1956 sont calculées d'après un taux inférieur à 75% présentement (à partir du 1er janvier 1956) applicable pour l'incapacité permanente totale (et des taux proportionnels en cas d'incapacité permanente partielle), à savoir selon un taux de 66 2/3% pour les accidents survenus de 1931 au 31 janvier 1952 et selon le taux de 70% du 1er février 1952 au 31 décembre 1955. On peut toutefois signaler que les montants des rentes revalorisées en 1964 selon les pourcentages consignés à l'art. 38 de la loi (donc de 40% à 10% selon l'année de l'accident) sont, dans tous les cas, supérieurs aux montants théoriques provenant d'un ajustement hypothétique selon le taux de 75%. En passant, il est à mentionner que dans les autres provinces canadiennes le seul ajustement effectué à date, c'est de recalculer les rentes en les basant sur le taux de 75%. * La revalorisation prévue par le Bill 79 tient compte de trois facteurs. En premier lieu, la majoration de la rente ne part pas du montant initial de la rente, mais de celui augmenté par la revalorisation de 1964. Le deuxième facteur amène toutes les rentes au taux de 75%, expliqué plus haut. Le troisième facteur tient compte du changement de l'indice du coût de la vie entre la date de l'octroi de la rente (date de l'accident) et l'année 1966, avec correction que la rente ainsi ajustée, d'après le coût de la vie, ne soit pas inférieure à celle d'après le principe du taux de 75%. Voici donc la table des majorations prévue par le Bill 79 (annexe A), applicable aux rentes payables le 30 septembre 1967, donc déjà augmentées, le cas échéant d'après la revalorisation de 1964. ANNEXE "A" A LA LOI Année de l'accident Taux de majoration 1931 -1939 40 % 1940 34 % 1941 26 % 1942 21 % 1943 19 % 1944 18 % 1945 7 % 1946 14 % 1947 -1951 12.5 % 1952 -1954 7.14 % 1955 10 % 1956 9 % 1957 5 % 1958 2.2 % 1959 1.1 % 1960 10 % 1961 9 % 1962 8 % 1963 6 % 1964 4 % 1965 2 % Cette échelle des majorations selon l'année de l'accident nécessite, peut-être, quelques explications par des exemples suivants: a) Les rentes provenant des accidents survenus après le 1er janvier 1960, n'étaient pas revalorisées en 1964. D'après l'échelle maintenant adoptée, elles seront majorées selon un taux de 2% par année écoulée depuis l'année de l'accident jusqu'à 1966. b) Les rentes provenant des accidents de la période 1955-1959 ont été revalorisées en 1964 de 10%; pour tenir compte de l'indice du coût de la vie, l'échelle prévoit des augmentations allant de 1.1% à 10% selon l'année de l'accident. c) Les rentes provenant des accidents de la période 1952-1954 ont été revalorisées en 1964 de 27%; après la revalorisation d'un tel pourcentage, les rentes sont déjà plus élevées que d'après l'indice du coût de la vie; l'échelle du Bill prévoit donc pour ces rentes un ajustement de 70% à 75%, c'est-à-dire une majoration de 7.14%. d) Les rentes provenant des accidents de la période 1948-1951 ont été revalorisées en 1964 de 40%; maintenant, d'après le Bill 79, elles sont majorées de 12.5% pour tenir compte de la relation de 75% à 66 2/3%. e) La même chose s'applique aux rentes provenant de la première moitié de l'année 1947, revalorisées en 1964 de 60%. f) Pour les rentes provenant des accidents d'avant le 1er janvier 1947, l'échelle du Bill 79 prévoit une majoration selon l'indice du coût de la vie, car un ajustement de 66 2/3% à 75% serait inférieur. En plus de la revalorisation des rentes aux accidentés, tel que décrit plus haut, le Bill 79 prévoit une majoration substantielle des rentes aux survivants; ces rentes sont, en principe, indépendantes du salaire compensable de l'ouvrier — victime d'un accident. D'après le Bill 79 les rentes mensuelles versées aux veuves (ou veufs invalides) seront portées de $75 à $100, donc une majoration de 33 1/3%. Les rentes pour les enfants seront portées de $25 à $35 par enfant, donc une majoration de 40%, et les rentes aux orphelins de père et de mère de $35 à $55. Mentionnons, en passant, que lorsque de la revalorisation en 1964 des rentes aux accidentés, les montants des rentes aux survivants n'ont pas été modifiés; la rente de veuve au montant de $75 existe depuis le 1er janvier 1960 (antérieurement à cette date elle était de $40 de 1931 à 1947 et de $45 durant la période 1947-1954). De même les rentes pour les enfants au montant de $25 et $35 aux orphelins existent depuis le 1er janvier 1960 (antérieurement elles étaient de $10 resp. $15 durant la période 1931-1947 et de $20 resp. $30 durant la période 1947-54). Il est à remarquer que dans tous les cas le montant des rentes était fixé selon la date du paiement (de l'échéance) quelle que soit la date de l'accident. La loi prévoit à l'art. 34, par. 10 qu'en principe, le total des rentes mensuelles payées au décès d'un ouvrier, ne peut excéder 75% de son salaire compensable et, le cas échéant, les rentes sont réduites proportionnellement. Cependant la rente mensuelle minimum payable à une veuve (ou un veuf invalide) avec un seul enfant est fixée d'après le Bill 79 à $135 en prévoyant ainsi une augmentation de la situation précédente de $35; pour une veuve avec deux enfants la rente est portée de $125 à $170 (une augmentation de $45) et pour une veuve avec plus de deux enfants de $150 à $205 (une augmentation de $55). S'il y a plus que deux enfants admissibles à ces rentes (donc âgés de moins de 18 ans ou aux études ou invalides) le montant à la veuve (y compris pour les enfants) peut excéder le dit montant de $205 par mois lorsque le salaire mensuel de la victime dépasse $273.33 (car 75% de $274 est de $205.50). Le Bill 79 en majorant les rentes en cours payables aux survivants des victimes des accidents survenus avant le 1er septembre 1967, prévoit une augmentation identique aux rentes qui seront accordées aux survivants des victimes des accidents survenus à compter du 1er septembre 1967. En outre, le Bill stipule que l'allocation spéciale payable à la veuve (ou à la mère adoptive) en plus des dépenses encourues pour les funérailles de l'ouvrier, devient $500 au lieu de $300. Une autre amélioration des prestations provient du fait que dorénavant les rentes accordées dans le cas d'incapacité permanente (totale ou partielle) seront versées jusqu'à la fin du mois durant lequel décède un tel rentier. D'après le texte précédent l'ouvrier n'a droit à sa rente que « sa vie durant »; ainsi les rentes exigibles pour le mois dans lequel a eu lieu le décès n'étaient payables (à la succession) que proportionnellement selon le nombre de jours qu'il a vécus (il est à mentionner à cette occasion que la loi parle toujours de la « rente hebdomadaire » quoique ces rentes sont versées en termes mensuels). La modification à ce propos est d'ailleurs conforme aux principes du Régime de rentes où on stipule que « le paiement d'une prestation est dû au début du mois, mais il est versé à la fin de chaque mois pour le mois écoulé ». En parlant des rentes aux victimes des accidents, il peut être intéressant de signaler que la très grande partie de ces rentes sont: payées pour l'incapacité partielle; ainsi selon l'état au 31 décembre 1966 le nombre des rentiers dont l'incapacité ne dépasse pas 20% est d'environ 63% du total et même la proportion de ceux avec une incapacité ne dépassant pas 50% est de 91%. Le degré moyen d'incapacité s'élevait à 24.4%. Parmi d'autres modifications apportées par le Bill 79, on peut mentionner l'article qui couvre le cas d'aggravation d'un mal d'un accidenté du travail. L'amendement prévoit que dans de tel cas la compensation pour l'incapacité temporaire ou permanente sera basée sur le salaire de l'ouvrier au moment de l'aggravation (rechute, etc.) si celle-ci survient plus que trois (3) ans après cet accident, bien entendu lorsque ce salaire est plus élevé que ceux qui ont servi de base pour établir la compensation antérieure. Dans le passé ce délai était de 5 ans. Une autre modification, inspirée celle-ci par la Loi sur le Régime de rentes, prévoit que la CAT peut déclarer morte une personne disparue à la suite d'un accident survenu par le fait ou à l'occasion du travail, dans les circonstances qui font présumer son décès et reconnaître, la date de l'accident (ou la disparition) comme date de son décès, et par le fait même, de verser aux survivants les prestations requises. Une disposition spéciale du Bill 79 concerne le cas de pneumoconiose (silicose et amiantose); d'après la nouvelle teneur de l'article en question la CAT peut accepter une réclamation à cette fin, aussi si la pneumoconiose « est accompagnée d'une autre complication »; dans le passé il existait justement la restriction que la pneumoconiose ne soit « accompagnée d'aucune complication » (art. 108 de la Loi) pour avoir droit à une compensation. Enfin un article du Bill 79 donne droit aux compensations à toute personne qui serait blessée ou tuée alors qu'elle accompagne un inspecteur des mines, en vertu de la Loi des mines, même si c'est un travail d'occasion ou étranger à l'industrie de l'employeur, lesquels cas, règle générale, ne donnent droit aux compensations. De la revalorisation des rentes en cours vont profiter en 1967 environ 15 mille bénéficiaires (soit accidentés ou atteints de maladie professionnelle) et l'augmentation des rentes atteindra $62,500 par mois ou $750,000 par année; cela fait en moyenne environ 10% des montants versés avant la revalorisation. En ce qui concerne les rentes aux veuves leur nombre est d'environ 2,300, tandis que le nombre d'enfants admissibles atteint environ 3,800 (y compris les orphelins de père et de mère, ainsi que les étudiants au dessus de 18 ans et les enfants-invalides). L'article 5 du Bill 79 prévoit que l'obligation de payer l'augmentation des rentes aux accidentés découlant de la revalorisation incombe au fond d'accident ou à l'employeur de la même manière que celle de la rente de base; une disposition semblable se trouvait dans l'amendement de la Loi lors de la revalorisation en 1964. Par contre le Bill 79 ne dit pas explicitement à qui incombe l'obligation de payer l'augmentation des rentes aux survivants décrétée par ce Bill. On peut toutefois déduire de l'art. 3 de la Loi que l'employeur dont l'industrie est mentionnée dans la cédule II (et qui par le fait même ne contribue pas au fond d'accident) est personnellement tenu de payer la compensation y compris la modification accordée par le Bill. D'autre part, toujours d'après le même article, l'employeur dont l'industrie est mentionnée à la cédule I, n'est pas responsable de payer la compensation, étant tenu de contribuer au fond d'accident de la Commission. La réforme des prestations aux survivants (des rentes et de l'allocation spéciale) causées par les accidents mortels, survenus après le 31 août 1967 aura comme conséquence l'augmentation des dépenses de la Commission et, par ricochet, amènera une faible majoration des taux de contributions. On estime que de ce fait le taux futur de contribution devra subir une majoration moyenne de moins de 4% du taux actuel; la majoration ne sera pourtant uniforme dans toutes les classes d'industries ou de risque; elle dépendra, en premier lieu, de la fréquence des accidents mortels qui est très différente selon la classe. Par contre, la revalorisation des rentes aux accidentés et l'ajustement de celles aux survivants (veuve, enfants)en cours en septembre 1967, c'est-à-dire causées par les accidents antérieurs soulève un problème particulier. Lors de la revalorisation des rentes en 1964, la Commission pouvait se prévaloir d'un excédent qui se trouvait (implicitement) dans son fond d'accident, pour former la capitalisation des augmentations des rentes provenant de la dite revalorisation. Contrairement à la position de 1964, la situation financière de la CAT en 1967 n'accuse pas de tel excédent (ni explicitement, ni implicitement) pour former la capitalisation des majorations décrétées par le Bill 79. D'après une déclaration du ministre du Travail en Chambre, les majorations en question exigeraient une capitalisation d'environ $21,5 millions. Il serait impossible (et même illogique) de prélever des employeurs une telle somme d'un seul coup. La Commission pourra donc se prévaloir, paraît-il, des dispositions de l'art. 32 de la Loi qui prévoit que « la Commission peut, de la manière et à telle époque ou à telles époques qu'elle croit le plus équitable et le plus en harmonie avec les principes généraux et les dispositions de la présente loi, prélever des employeurs qui ont exploité dans le passé, qui exploitent actuellement ou qui exploiteront à l'avenir une des industries visées par la présente loi, les sommes additionnelles résultant de l'augmentation des compensations payables en vertu des dispositions de la présente loi ». En vertu de cet article (qui est rédigé quasi « sur mesure » de notre problème) il est donc loisible à la Commission de répartir le montant nécessaire sur une longue période, par exemple 25 ans, en prélevant annuellement à titre de sommes additionnelles (sans nécessairement les identifier comme telles) aux contributions régulières; une telle répartition sur une période de 25 ans exigerait environ 6.4% du montant de la capitalisation nécessaire de $21,5 millions, donc environ $1,400,000 par année; ce montant tient compte d'intérêt à raison de 4% composé annuellement, c'est-à-dire le même que le taux d'escompte appliqué pour évaluer la valeur présente des augmentations accordées. Dans l'hypothèse que les contributions annuelles régulières dépasseront $50 millions, la cotisation additionnelle serait d'ordre de 3% et possible moins, si on envisage que la hausse du plafond des salaires compensables de $5,000 à $6,000 et l'assujettissement projeté de nouveaux groupes des travailleurs augmentera sensiblement le volume global des contributions régulières. D'après le plan quinquennal préparé par la Commission et annoncé par le ministre du Travail dans la Gazette du Travail du Québec (juillet 1967) on peut s'attendre que le nombre des salariés couverts par la Loi augmentera dans 5 ans de 50%, en passant de un million en 1966 à un million et demi en 1972, ceci selon les données disponibles actuellement concernant les nouvelles entreprises qui deviendront progressivement assujetties à la Loi. Lors de la discussion du Bill 79 à l'Assemblée législative on a soulevé la question du rajustement ou de l'adaptation automatique au coût de la vie des prestations de la Commission aux accidentés (et à leurs survivants), tout comme cela est prévu pour les prestations du Régime de rentes (au Québec et dans les autres provinces canadiennes) et aussi pour les pensions (fédérales) de la sécurité de la vieillesse. Selon l'explication donnée en Chambre par le ministre du Travail, le gouvernement a envisagé d'une manière objective la question de la revalorisation automatique future des rentes de la CAT, mais le gouvernement n'a pas voulu cette année, selon l'expression du ministre, en faire une disposition particulière dans la loi, bien qu'on y avait songé; et cela surtout, d'après le ministre, à cause du coût supplémentaire pour les employeurs (lesquels, comme on sait, sont les seuls qui contribuent à la CAT), lequel serait occasionné par un tel ajustement automatique. Le ministre a ajouté que le gouvernement est bien conscient du problème et qu'il ne l'a pas abandonné. Il faut donc comprendre qu'il sera étudié plus tard, peut-être, avec l'ajustement automatique d'autres prestations payables par le gouvernement.1 A ce propos, il est à signaler qu'à date, à notre connaissance, il y a une seule province au Canada, celle de la Colombie-Britannique, dans laquelle les prestations périodiques sont sujettes à un accroissement automatique, selon l'indice des prix à la consommation. En substance, si cet indice augmente d'une année à l'autre de pas moins de 2%, les rentes seront accrues de 2% pour chaque augmentation de 2% de l'indice.
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Calcul Haut Débit"

1

Doan, Trung-Tung. "Epidémiologie moléculaire et métagénomique à haut débit sur la grille." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00778073.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Hernane, Soumeya-Leila. "Modèles et algorithmes de partage de données cohérents pour le calcul parallèle distribué à haut débit." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0042/document.

Повний текст джерела
Анотація:
Data Handover est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel Dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres
Data Handover is a library of functions adapted to large-scale distributed systems. It provides routines that allow acquiring resources in reading or writing in the ways that are coherent and transparent for users. We modelled the life cycle of Dho by a finite state automaton and through experiments; we have found that our approach produced an overlap between the calculation of the application and the control of the data. These experiments were conducted both in simulated mode and in real environment (Grid'5000). We exploited the GRAS library of the SimGrid toolkit. Several clients try to access the resource concurrently according the client-server paradigm. By the theory of queues, the stability of the model was demonstrated in a centralized environment. We improved, the distributed algorithm for mutual exclusion (of Naimi and Trehel), by introducing following features: (1) Allowing the mobility of processes (ADEMLE), (2) introducing shared locks (AEMLEP) and finally (3) merging both properties cited above into an algorithm summarising (ADEMLEP). We proved the properties, safety and liveliness, theoretically for all extended algorithms. The proposed peer-to-peer system combines our extended algorithms and original Data Handover model. Lock and resource managers operate and interact each other in an architecture based on three levels. Following the experimental study of the underlying system on Grid'5000, and the results obtained, we have proved the performance and stability of the model Dho over a multitude of parameters
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Hernane, Soumeya. "Modèles et algorithmes de partage de données cohérents pour le calcul parallèle et distribué à haut débit." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00919272.

Повний текст джерела
Анотація:
Data Handover, Dho est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Heidsieck, Gaetan. "Gestion distribuée de workflows scientifiques pour le phénotypage des plantes à haut débit." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS066.

Повний текст джерела
Анотація:
Dans de nombreux domaines scientifiques, les expériences numériques nécessitent généralement de nombreuses étapes de traitement ou d'analyse sur d'énormes ensembles de données. Elles peuvent être représentées comme des flux de travail scientifiques. Ces flux de travail facilitent la modélisation, la gestion et l'exécution d'activités de calcul liées par des dépendances de données. Comme la taille des données traitées et la complexité des calculs ne cessent d'augmenter, ces flux de travail deviennent orientés-données. Afin d'exécuter ces flux de travail dans un délai raisonnable, ils doivent être déployés dans un environnement informatique distribué à haute performance, tel que le cloud. Le phénotypage des plantes vise à capturer les caractéristiques des plantes, telles que les caractéristiques morphologiques, topologiques et phénologiques. Des plateformes de phénotypage à haut débit ont vu le jour pour accélérer l'acquisition de données de phénotypage dans des conditions contrôlées (par exemple en serre) ou en plein champ. Ces plates-formes génèrent des téraoctets de données utilisées en sélection et en biologie végétale. Ces ensembles de données sont stockés dans différents sites géodistribués. Les scientifiques peuvent utiliser un système de gestion du flux de travail scientifique (SWMS) pour gérer l'exécution du flux de travail sur un cloud multisite. Dans le domaine des sciences biologiques, il est courant que les utilisateurs des flux de travail réutilisent d'autres les analyses ou des données générées par d'autres utilisateurs. La réutilisation et la réorientation des flux de travail permettent à l'utilisateur de développer de nouvelles analyses plus rapidement. En outre, un utilisateur peut avoir besoin d'exécuter un flux de travail plusieurs fois avec différents ensembles de paramètres et de données d'entrée pour analyser l'impact d'une étape expérimentale quelconque, représentée comme un fragment du flux de travail. Dans les deux cas, certains fragments du flux de travail peuvent être exécutés plusieurs fois, ce qui peut être très consommateur de ressources et inutilement long. La ré-exécution du flux de travail peut être évitée en stockant les résultats intermédiaires de ces fragments et en les réutilisant dans des exécutions ultérieures.Dans cette thèse, nous proposons une solution de mise en cache adaptative pour l'exécution efficace de flux de travail orientés-données dans des clouds monosites et multisites. En s'adaptant aux variations des temps d'exécution des tâches, notre solution peut maximiser la réutilisation des données intermédiaires produites par les flux de travail de plusieurs utilisateurs. Notre solution est basée sur une nouvelle architecture de SWMS qui gère automatiquement le stockage et la réutilisation des données intermédiaires. La gestion du cache intervient au cours de deux étapes principales : le prétraitement des flux de travail, pour supprimer tous les fragments du flux de travail qui n'ont pas besoin d'être exécutés ; et le provisionnement du cache, pour décider au moment de l'exécution quelles données intermédiaires doivent être mises en cache. Nous proposons un algorithme adaptatif de mise en cache qui tient compte des variations des temps d'exécution des tâches et de la taille des données. Nous avons évalué notre solution en l'implémentant dans OpenAlea et en réalisant des expériences approfondies sur des données réelles avec une application complexe orientés-données de phénotypage de plantes.Nos principales contributions sont i) une architecture SWMS pour gérer les algorithmes d’ordonancement utilisant le cache lors de l'exécution de flux de travail dans des clouds monosites et multisites, ii) un modèle de coût qui inclut les coûts financiers et temporels, iii) deux algorithmes de d’ordonancement adapté au cache, en monosite et multisite clouds, et iv) une validation expérimentale sur une application de phénotypage de plantes orienté-données
In many scientific domains, such as bio-science, complex numerical experiments typically require many processing or analysis steps over huge datasets. They can be represented as scientific workflows. These workflows ease the modeling, management, and execution of computational activities linked by data dependencies. As the size of the data processed and the complexity of the computation keep increasing, these workflows become data-intensive. In order to execute such workflows within a reasonable timeframe, they need to be deployed in a high-performance distributed computing environment, such as the cloud.Plant phenotyping aims at capturing plant characteristics, such as morphological, topological, phenological features. High-throughput phenotyping (HTP) platforms have emerged to speed up the phenotyping data acquisition in controlled conditions (e.g. greenhouse) or in the field. Such platforms generate terabytes of data used in plant breeding and plant biology to test novel mechanisms. These datasets are stored in different geodistributed sites (data centers). Scientists can use a Scientific Workflow Management System (SWMS) to manage the workflow execution over a multisite cloud.In bio-science, it is common for workflow users to reuse other workflows or data generated by other users. Reusing and re-purposing workflows allow the user to develop new analyses faster. Furthermore, a user may need to execute a workflow many times with different sets of parameters and input data to analyze the impact of some experimental step, represented as a workflow fragment, i.e., a subset of the workflow activities and dependencies. In both cases, some fragments of the workflow may be executed many times, which can be highly resource-consuming and unnecessary long. Workflow re-execution can be avoided by storing the intermediate results of these workflow fragments and reusing them in later executions.In this thesis, we propose an adaptive caching solution for efficient execution of data-intensive workflows in monosite and multisite clouds. By adapting to the variations in tasks’ execution times, our solution can maximize the reuse of intermediate data produced by workflows from multiple users. Our solution is based on a new SWMS architecture that automatically manages the storage and reuse of intermediate data. Cache management is involved during two main steps: workflows preprocessing, to remove all fragments of the workflow that do not need to be executed; and cache provisioning, to decide at runtime which intermediate data should be cached. We propose an adaptive cache provisioning algorithm that deals with the variations in task execution times and the size of data. We evaluated our solution by implementing it in OpenAlea and performing extensive experiments on real data with a complex data-intensive application in plant phenotyping.Our main contributions are i) a SWMS architecture to handle caching and cache-aware scheduling algorithms when executing workflows in both monosite and multisite clouds, ii) a cost model that includes both financial and time costs for both the workflow execution, and the cache management, iii) two cache-aware scheduling algorithms one adapted for monosite and one for multisite cloud, and iv) and an experimental validation on a data-intensive plant phenotyping application
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Nguyen, Ly Thien Truong. "Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0904/document.

Повний текст джерела
Анотація:
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées
The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Boyer, Alexandre. "Contributions to Computing needs in High Energy Physics Offline Activities : Towards an efficient exploitation of heterogeneous, distributed and shared Computing Resources." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2022. http://www.theses.fr/2022UCFAC108.

Повний текст джерела
Анотація:
Repousser les limites de la science et fournir des services spécifiques et performant aux particuliers et aux communautés requiert des logiciels toujours plus sophistiqués, du matériel spécialisé et un besoin croissant en stockage et puissance de calcul. En ce début de décennie, nous entrons dans une phase informatique distribuée et hétérogène, où les ressources seront limitées et contraintes. Les communautés employant les grilles de calculs doivent adapter leur approche : (i) les applications doivent supporter diverses architectures ; (ii) les systèmes de gestion de charge de travail doivent gérer plusieurs modèles de traitement informatique et garantir la bonne exécution des applications, en dépit de quelconque contraintes liées aux systèmes sous-jacent. Cette thèse se concentre sur le dernier point évoqué au travers du cas de l’expérience LHCb.La collaboration LHCb s’appuie sur la World LHC Computing Grid, une infrastructure impliquant 170 centres de calcul répartis dans le monde, pour traiter un nombre croissant de simulations de Monte Carlo afin de reproduire les conditions expérimentales du projet. Malgré son envergure, l’infrastructure ne sera pas en mesure de couvrir les besoins en simulation des prochaines périodes d’exploitation du LHC en un temps raisonnable. En parallèle, les programmes scientifiques nationaux encouragent les communautés à s’approprier leurs supercalculateurs, des ordinateurs centralisant une puissance de calcul significative mais impliquant des défis d’intégration de taille.Au cours de cette thèse, nous proposons différentes approches pour approvisionner des ressources de calcul hétérogènes et distribuées en tâches LHCb. Nous avons développé des méthodes pour augmenter le débit d’exécution des programmes LHCb sur des grilles de calcul (+40.86%). Nous avons également conçu une série de solutions logicielles pour répondre aux limitations et contraintes que l’on peut retrouver dans des super calculateurs, comme le manque de connexion au réseau externe ou les dépendances des programmes par exemple. Nous avons appliqué ces solutions pour tirer profit de la puissance de calcul provenant de quatre partitions sur des super calculateurs classés au Top500
Pushing the boundaries of sciences and providing more advanced services to individuals and communities continuously demand more sophisticated software, specialized hardware, and a growing need for computing power and storage. At the beginning of the 2020s, we are entering a heterogeneous and distributed computing era where resources will be limited and constrained. Grid communities need to adapt their approach: (i) applications need to support various architectures; (ii) workload management systems have to manage various computing paradigms and guarantee a proper execution of the applications, regardless of the constraints of the underlying systems. This thesis focuses on the latter point through the case of the LHCb experiment.The LHCb collaboration currently relies on an infrastructure involving 170 computing centers across the world, the World LHC Computing Grid, to process a growing amount of Monte Carlo simulations, reproducing the experimental conditions of the experiment. Despite its huge size, it will be unable to handle simulations coming from the next LHC runs in a decent time. In the meantime, national science programs are consolidating computing resources and encourage using supercomputers, which provide a tremendous amount of computing power but pose higher integration challenges.In this thesis, we propose different approaches to supply distributed and shared computing resources with LHCb tasks. We developed methods to increase the number of computing resources allocations and their duration. It resulted in an improvement of the LHCb job throughput on a grid infrastructure (+40.86%). We also designed a series of software solutions to address highly-constrained environment issues that can be found in supercomputers, such as lack of external connectivity and software dependencies. We have applied those concepts to leverage computing power from four partitions of supercomputers ranked in the Top500
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ponsard, Raphael. "Traitement en temps réel, haut débit et faible latence, d'images par coprocesseurs GPU & FPGA utilisant les techniques d'accès direct à la mémoire distante." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT071.

Повний текст джерела
Анотація:
L'amélioration permanente des sources de rayonnement X, ansi que les gains en performances des détecteurs de dernière géneration rendent possibles des experiences très performantes, qui peuvent produire des quantités énormes de données à haut débit, aussi difficiles à gérer qu'à stocker.Dans ce contexte, il devient indispensable d'améliorer les systèmes de calculs et de permettre le pré-traitement en temps réel des données brutes, la réjection de celles qui sont inutiles, la compression et la supervision en temps réel.Ces problématiques de gestion des flux de données n'ont pas encore reçu de réponse pleinement satisfaisante, en tous cas pas de façon générale.Cette thèse fait partie d'un projet plus vaste, le projet RASHPA de l'ESRF, visant à développer un système d'acquisition haute performance basé sur le RDMA.Une des caractéristiques essentielle de ce projet RASHPA est sa capacité à transférer directement des données de la tête du détecteur vers la mémoire de l'unité de calcul, au plus haut débit possible, en utilisant les techniques d'accès direct à la mémoire, sans copies inutiles, et minimisant le recours à un processeur (CPU).Le travail réalisé pendant cette thèse est une contribution au système RASHPA, qui rend possible le transfert direct de données dans la mémoire interne de cartes accélératrices.Un mécanisme de synchronisation à faible latence entre carte réseau RDMA et unité de calcul est proposé, déclenchant les opérations au rythme du détecteur.Cela permet de fournir une solution globale au traitement de données en temps réel, tant sur ordinateurs classiques que sur accélérateurs massivement paralleles.Pour illustrer la souplesse et l'extensibilité de l'approche proposée, plusieurs simulateurs de détecteurs ont été réalisés, s'appuyant sur les protocoles RoCEv2 ou PCI Express pour la partie transport ainsi que des unités de calcul RASHPA (RPU) à base de cartes graphiques (GPU) ou de circuits reconfigurables (FPGA).Le traitement de données en temps réel sur FPGA, encore peu pratiqué dans les sciences du rayon X, est évalué en utilisant les techniques de synthèse de haut niveau (HLS).Le projet est complété par un allocateur de mémoire centrale par grands blocs contigus, et par un système de translation d'adresses, tous deux destinés au contrôleur DMA.La qualification du pipeline de calcul proposé a été faite en s'inpirant d'expériences de cristallographie en série (SSX).Il comprend un pré-traitement des données brutes comme prévu pour un détecteur à gain adaptatif, la réjection d'images en fonction du nombre de pics de Bragg, et la compression des données au format matrice creuse
The constant evolution of X-ray photon sources associated to the increasing performance of high-end X-ray detectors allows cutting-edge experiments that can produce very high throughput data streams and generate large volumes of data that are challenging to manage and store.In this context, it becomes fundamental to optimize processing architectures that allow real-time image processing such as raw data pre-treatment, data reduction, data compression, fast-feedback.These data management challenges have still not been addressed in a fully satisfactory way as of today, and in any case, not in a generic manner.This thesis is part of the ESRF RASHPA project that aims at developing a RDMA-based Acquisition System for High Performance Applications.One of the main characteristics of this framework is the direct data placement, straight from the detector head (data producer) to the processing computing infrastructure (data receiver), at the highest acceptable throughput, using Remote Direct Memory Access (RDMA) and zero-copy techniques with minimal Central Processing Unit (CPU) interventions.The work carried out in this thesis is a contribution to the RASHPA framework, enabling data transfer directly to the internal memory of accelerator boards.A low-latency synchronisation mechanism between the RDMA network interface cards (RNIC) and the processing unit is proposed to trigger data processing while keeping pace with detector.Thus, a comprehensive solution fulfilling the online data analysis challenges is proposed on standard computer and massively parallel coprocessors as well.Scalability and versatility of the proposed approach is exemplified by detector emulators, leveraging RoCEv2 (RDMA over Converged Ethernet) or PCI-Express links and RASHPA Processing Units (RPUs) such as Graphic Processor Units (GPUs) and Field Gate Programmable Arrays (FPGAs).Real-time data processing on FPGA, seldom adopted in X ray science, is evaluated and the benefits of high level synthesis are exhibited.The framework is supplemented with an allocator of large contiguous memory chunk in main memory and an address translation system for accelerators, both geared towards DMA transfer.The assessment of the proposed pipeline was performed with online data analysis as found in serial diffraction experiments.This includes raw data pre-treatment as foreseen with adaptive gain detectors, image rejection using Bragg's peaks counting and data compression to sparse matrix format
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Ben, Nsira Nadia. "Algorithme de recherche incrémentale d'un motif dans un ensemble de séquences d'ADN issues de séquençages à haut débit." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR143/document.

Повний текст джерела
Анотація:
Dans cette thèse, nous nous intéressons au problème de recherche incrémentale de motifs dans des séquences fortement similaires (On-line Pattern Matching on Highly Similar Sequences), issues de technologies de séquençage à haut débit (SHD). Ces séquences ne diffèrent que par de très petites quantités de variations et présentent un niveau de similarité très élevé. Il y a donc un fort besoin d'algorithmes efficaces pour effectuer la recherche rapide de motifs dans de tels ensembles de séquences spécifiques. Nous développons de nouveaux algorithmes pour traiter ce problème. Cette thèse est répartie en cinq parties. Dans la première partie, nous présentons un état de l'art sur les algorithmes les plus connus du problème de recherche de motifs et les index associés. Puis, dans les trois parties suivantes, nous développons trois algorithmes directement dédiés à la recherche incrémentale de motifs dans un ensemble de séquences fortement similaires. Enfin, dans la cinquième partie, nous effectuons une étude expérimentale sur ces algorithmes. Cette étude a montré que nos algorithmes sont efficaces en pratique en terme de temps de calcul
In this thesis, we are interested in the problem of on-line pattern matching in highly similar sequences, On-line Pattern Matching on Highly Similar Sequences, outcoming from Next Generation Sequencing technologies (NGS). These sequences only differ by a very small amount. There is thus a strong need for efficient algorithms for performing fast pattern matching in such specific sets of sequences. We develop new algorithms to process this problem. This thesis is partitioned into five parts. In the first part, we present a state of the art on the most popular algorithms of finding problem and the related indexes. Then, in the three following parts, we develop three algorithms directly dedicated to the on-line search for patterns in a set of highly similar sequences. Finally, in the fifth part, we conduct an experimental study on these algorithms. This study shows that our algorithms are efficient in practice in terms of computation time
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Didelot, Sylvain. "Improving memory consumption and performance scalability of HPC applications with multi-threaded network communications." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0029/document.

Повний текст джерела
Анотація:
La tendance en HPC est à l'accroissement du nombre de coeurs par noeud de calcul pour une quantité totale de mémoire par noeud constante. A large échelle, l'un des principaux défis pour les applications parallèles est de garder une faible consommation mémoire. Cette thèse présente une couche de communication multi-threadée sur Infiniband, laquelle fournie de bonnes performances et une faible consommation mémoire. Nous ciblons les applications scientifiques parallélisées grâce à la bibliothèque MPI ou bien combinées avec un modèle de programmation en mémoire partagée. En partant du constat que le nombre de connexions réseau et de buffers de communication est critique pour la mise à l'échelle des bibliothèques MPI, la première contribution propose trois approches afin de contrôler leur utilisation. Nous présentons une topologie virtuelle extensible et entièrement connectée pour réseaux rapides orientés connexion. Dans un contexte agrégeant plusieurs cartes permettant d'ajuster dynamiquement la configuration des buffers réseau utilisant la technologie RDMA. La seconde contribution propose une optimisation qui renforce le potentiel d'asynchronisme des applications MPI, laquelle montre une accélération de deux des communications. La troisième contribution évalue les performances de plusieurs bibliothèques MPI exécutant une application de modélisation sismique en contexte hybride. Les expériences sur des noeuds de calcul jusqu'à 128 coeurs montrent une économie de 17 % sur la mémoire. De plus, notre couche de communication multi-threadée réduit le temps d'exécution dans le cas où plusieurs threads OpenMP participent simultanément aux communications MPI
A recent trend in high performance computing shows a rising number of cores per compute node, while the total amount of memory per compute node remains constant. To scale parallel applications on such large machines, one of the major challenges is to keep a low memory consumption. This thesis develops a multi-threaded communication layer over Infiniband which provides both good performance of communications and a low memory consumption. We target scientific applications parallelized using the MPI standard in pure mode or combined with a shared memory programming model. Starting with the observation that network endpoints and communication buffers are critical for the scalability of MPI runtimes, the first contribution proposes three approaches to control their usage. We introduce a scalable and fully-connected virtual topology for connection-oriented high-speed networks. In the context of multirail configurations, we then detail a runtime technique which reduces the number of network connections. We finally present a protocol for dynamically resizing network buffers over the RDMA technology. The second contribution proposes a runtime optimization to enforce the overlap potential of MPI communications, showing a 2x improvement factor on communications. The third contribution evaluates the performance of several MPI runtimes running a seismic modeling application in a hybrid context. On large compute nodes up to 128 cores, the introduction of OpenMP in the MPI application saves up to 17 % of memory. Moreover, we show a performance improvement with our multi-threaded communication layer where the OpenMP threads concurrently participate to the MPI communications
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Повний текст джерела
Анотація:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії