Literatura académica sobre el tema "Systèmes à base de composants concurrents"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Systèmes à base de composants concurrents".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Systèmes à base de composants concurrents"

1

Renaux, Emmanuel, Olivier Caron y Jean-Marc Geib. "Chaîne de production de systèmes à base de composants logiques". L'objet 10, n.º 2-3 (30 de septiembre de 2004): 147–60. http://dx.doi.org/10.3166/objet.10.2-3.147-160.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Fade, Julien, Matthieu Boffety y Vincent Devlaminck. "L’imagerie Polarimétrique". Photoniques, n.º 109 (julio de 2021): 57–60. http://dx.doi.org/10.1051/photon/202110957.

Texto completo
Resumen
Les concepts de la polarimétrie sont utilisés depuis longtemps pour la caractérisation optique des matériaux. Toutefois, l’instrumentation polarimétrique a connu son véritable essor avec l’apparition de sources artificielles contrôlées et de photodétecteurs sensibles, fournissant des outils de caractérisation très performants (ellipsomètres). Depuis trente ans, c’est au tour de l’imagerie polarimétrique de se développer avec l’apparition de systèmes de plus en plus rapides et compacts à base de composants à cristaux liquides ou, plus récemment, de capteurs d’images micro-structurés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Sfaxi, Lilia, Takoua Abdellatif, Yassine Lakhnech y Riadh Robbana. "Sécuriser les systèmes distribués à base de composants par contrôle de flux d’information". Techniques et sciences informatiques 31, n.º 2 (febrero de 2012): 245–79. http://dx.doi.org/10.3166/tsi.31.245-279.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Omran, H., M. Madec, B. Bayle y V. Schuh. "Carte électronique générique à base de compensateurs avance-retard pour les travaux pratiques d’automatique continue". J3eA 18 (2019): 1012. http://dx.doi.org/10.1051/j3ea/20191012.

Texto completo
Resumen
Dans le cadre des travaux pratiques d’automatique en première année à Télécom Physique Strasbourg, nous avons conçu une carte électronique unique permettant la réalisation d’une large gamme de correcteurs pour l’asservissement continu sur des systèmes divers : moteur, système de chauffage, lévitation magnétique. La carte est constituée de trois circuits d’entrée permettant l’implémentation d’un filtre du premier ordre, de quatre modules correcteurs constitués chacun d’un compensateur à avance-retard de phase, d’un additionneur et d’un soustracteur, ainsi que de trois sorties. Cette maquette permet aux étudiants de réaliser facilement différents asservissements en interconnectant les blocs entre eux et en ajustant les valeurs de composants passifs (résistances et condensateurs) de sorte à obtenir les fonctions de transfert calculées en préparation. L’utilisation de la maquette est illustrée dans cet article sur l’un des exercices de TP : l’asservissement en position d’une bille magnétique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

-MORENO, Pr C. "Plug & Net® Open Components® : Une architecture ouverte à base de composants et agents pour l'interopérabilité de systèmes d'Information Surveillance et Reconnaissance". Revue de l'Electricité et de l'Electronique -, n.º 06 (2004): 59. http://dx.doi.org/10.3845/ree.2004.059.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

BROCHARD, M., K. DUHEN y D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"". INRAE Productions Animales 27, n.º 4 (21 de octubre de 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Texto completo
Resumen
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

El Azhary, Mohamed. "L'Approche Juridique, Épistémique et Finalistique du Marché Pertinent en Droits Marocain et Européen de la Concurrence : État des Lieux, Enjeux et Réflexion Prospective". European Scientific Journal, ESJ 20, n.º 8 (31 de marzo de 2024): 49. http://dx.doi.org/10.19044/esj.2024.v20n8p49.

Texto completo
Resumen
L’exercice de la prérogative individuelle de faire concurrence n’a jamais été un état naturel dépeignant les rapports entre protagonistes du marché, et la concurrence ne s’affiche pas non plus comme un simple mécanisme permettant d’établir la rencontre entre l’offre et la demande sur un marché donné. Elle se présente avant toute chose comme étant une confrontation et une contrainte économique pesant aux dépens d’opérateurs économiques. Laquelle confrontation se traduisant par la prévalence du «comportement desperado» de nuire à autrui étant donné qu’il est question tout de même d’accroître ses parts de marché à l’insu des concurrents présents sur un même marché pertinent. Cette confrontation faisant restrictions à une concurrence libre et loyale sur le marché se doit d’être appréhendée par l’entremise de la règle de droit, via la dynamisation des dispositions d’ordre public économique instituant pour les entreprises une contrainte d’ordre juridique rendant la contrainte économique effective. Le déploiement d’une appréhension juridique cohérente des restrictions à une concurrence libre et loyale sur le marché présuppose au prime abord l’adoption d’une démarche proactive et systémique laquelle verrait dans tout «comportement desperado» sur le marché intérieur un outrage à l’égalité des chances entre entreprises rivales. Une restriction à l'accès au marché étant considérée comme étant une menace déroutante pour le libre jeu de la concurrence et constitue à ce titre un obstacle considérable à la croissance socio-économique à abolir. Aussi, une approche proactive et systémique, de nature à contribuer à la préservation de l’égalité dans la concurrence voire à l’exhortation du dynamisme de compétition entre les protagonistes présents sur le marché, demeure-t-elle tributaire de l’intérêt porté à l’acte de «la définition du marché pertinent» lui-même. Dès lors, sur la base d’une méthodologie comparative et dialectique, la présente étude s'inscrit dans une perspective de recherche visant à tracer les rebords afférents au rôle joué par l’acte de «la définition du marché pertinent» dans le dessein de la mise en exergue du droit de la concurrence. Cette étude vise pareillement à démystifier les tournures épistémologiques qu’il faudrait mettre en évidence à l'échelle des autorités de la concurrence des systèmes juridiques marocain et européen pour concrétiser tous les objectifs du pacte légal de stabilité des entreprises sur le marché intérieur. Une étude qui mettera en exergue preuve à l’appui trois facteurs concluants à prendre en ligne de mire par les autorités de la concurrence des systèmes juridiques marocain et européen dans le contexte de l’appréhension pragmatique du «marché pertinent». Il s’agit, d'une part, de l’approche du «marché pertinent» orientée vers la démarcation de «l’environnement concurrentiel», notamment, à l’aune des comportements des acteurs du marché. Il est question, d'autre part, de l’approche du «marché pertinent» réalisée par référence au «contexte temporel» des «comportements prohibés» découlant de l’entreprise se trouvant au sein de l’enceinte concurrentielle, mais aussi eu égard à «la finalité intrinsèque et extrinsèque» des comportements reflétant la dimension stratégique des activités initiées par l'entreprise suspecte de fausser la concurrence sur le marché en cause. The work out of the individual prerogative to compete has never been a natural state of relations between market protagonists, nor is competition seen as a simple mechanism for bringing supply and demand together on a given market. It is first and foremost a confrontation and an economic constraint weighing on economic operators. This confrontation translates into the prevalence of «desperado behavior» to harm others, given that it is all about increasing market share without the knowledge of competitors present on the same relevant market. This confrontation, which restricts free and fair competition on the market, needs to be tackled through the rule of law, by revitalizing the provisions of economic public policy, which create a legal constraint for companies, making the economic constraint effective. Deploying a coherent legal approach to restrictions on free and fair competition in the market presupposes, at the outset, the adoption of a proactive and systemic approach, which would see any «desperado behavior» in the domestic market as an outrage against equality of opportunity between rival companies. Restrictions on market access are seen as a disturbing threat to the free play of competition, and as such constitute a considerable obstacle to socio-economic growth that needs to be abolished. A proactive, systemic approach that can help to preserve equality in competition, and even to encourage the dynamism of competition between protagonists on the market, therefore depends on a focus on the act of «defining the relevant market» itself. Based on a comparative and dialectical methodology, the present study is part of a research perspective aimed at outlining the role played by the act of «defining the relevant market» in highlighting competition law. Similarly, this study aims to demystify the epistemological twists and turns that need to be highlighted at the level of the competition authorities of the Moroccan and European legal systems in order to achieve all the objectives of the legal pact for the stability of companies in the internal market. This study will highlight three conclusive factors to be taken into account by the competition authorities of the Moroccan and European legal systems in the context of a pragmatic apprehension of «the relevant market». Firstly, the approach of the «relevant market» is geared towards demarcating the «competitive environment», particularly in terms of the behavior of market players. On the other hand, the «relevant market» approach is based on the «temporal context» of the «prohibited behaviour» of the company in the competitive arena, as well as on the «intrinsic and extrinsic purpose» of the behaviour, reflecting the strategic dimension of the activities initiated by the company suspected of distorting competition in the «relevant market».
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Boumechta, Samer y Abdelhamid Kaabeche. "Optimisation du dimensionnement d’un système hybride Eolien/Diesel". Journal of Renewable Energies 18, n.º 3 (18 de octubre de 2023). http://dx.doi.org/10.54966/jreen.v18i3.519.

Texto completo
Resumen
Actuellement, le générateur diesel est la solution technique la plus utilisée pour l’électrification des sites isolés. Néanmoins, l’accès à ces sites étant généralement long et difficile, les coûts de maintenance et d’approvisionnement en carburant sont très élevés, ainsi les émissions de gaz à effet de serre qui présentent un grand risque sur l’environnement. En conséquence, nous avons envisagé de coupler – au sein d’un système hybride – un générateur diesel avec une source d’énergie renouvelable (éolien). Cette étude se concentre sur le développement d’un modèle de dimensionnement optimal basé sur une approche itérative pour optimiser le dimensionnement des divers composants du système hybride éolien/diesel/batteries et ce, pour assurer une autonomie totale du système. Le modèle global proposé prend en considération les modèles des différents sous-systèmes constituant le générateur hybride, le modèle de la fiabilité (LPSP) et les modèles du coût de cycle de vie (TNPC), ainsi que le modèle du coût de l’énergie (LUEC). Après l’application du modèle, toutes les configurations ayant une LPSP = 0 % sont retenues. Par la suite, la configuration optimale du système est déterminée sur la base du coût minimal.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Winseck, Dwayne. "A Social History of Canadian Telecommunications". Canadian Journal of Communication 20, n.º 2 (1 de febrero de 1995). http://dx.doi.org/10.22230/cjc.1995v20n2a863.

Texto completo
Resumen
Abstract: To appreciate the implications of recent government and regulatory decisions advancing competition in certain local network and long-distance telecommunications services, new regulatory and pricing mechanisms, and even an entirely new legal framework, it is necessary to recover the historical origins of the regulatory concepts and industry structures that are being deregulated out of existence, or said to be altered by technological circumstances and economic imperatives. The purpose of this paper is to reconstruct the historically specific, mainstay categories of the Canadian telecommunications system, such as private and public ownership, the split jurisdictional legal structure, the regulated natural monopoly concept, and other key regulatory principles. Furthermore, in order that the history of telecommunications policy can be considered on terms not reducible to economic imperatives, technological innovation or a discourse saturated with technical and legal jargon, this study considers the active role of labour unions and other social forces in shaping the early Canadian telecommunications regulatory environment. Résumé: Des décisions gouvernementales et réglementaires récentes ont mené à: la concurrence dans certains réseaux locaux et certains services de télécommunications de longue distance; de nouveaux mécanismes de réglementation et d'ajustement des prix; et même un système législatif complètement nouveau. Pour bien saisir les implications de ces décisions, il faut étudier les origines historiques des concepts réglementaires et des structures industrielles que la déréglementation est en train de faire disparaître, ou que dit-on des circonstances technologiques et des impératifs économiques sont en train de transformer. L'objectif de cette étude est ainsi de reconstituer les composantes fondamentales et historiquement spécifiques du système canadien de télécommunications, telles que la possession publique et privée, la structure législative divisée, le concept de monopole naturel réglementé et d'autres principes réglementaires de base. En outre, afin de considérer l'histoire des politiques en télécommunications d'un point de vue qui ne se réduit pas aux impératifs économiques, à l'innovation technologique ou à un discours saturé de jargon légal et technique, cette étude tient compte du rôle actif qu'ont joué les syndicats et d'autres forces sociales à former l'environnement réglementaire initial des télécommunications canadiennes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Gningue, Mame. "Improved combination of FMEA and HACCP for security risk management in international container transportation". Les Cahiers Scientifiques du Transport - Scientific Papers in Transportation 66 | 2014 (30 de noviembre de 2014). http://dx.doi.org/10.46298/cst.12141.

Texto completo
Resumen
Failure Mode Effect Analysis (FMEA) is widely recognized as a powerful technique for reliability management in various areas. It is a specific tool for quality assurance, used to identify, assess, prioritize and mitigate failures modes for critical functions and/or components of a system before they occur. However, the conventional Risk Priority Number (RPN) method used for risk assessment and prioritization is absolutely criticized in the literature. To improve FMEA’s performance, Artificial Intelligence is often used in many studies, with fuzzy rule-base-systems in particular. The FMEA steps described in the literature mostly focus on identifying, detecting and assessing potential failure modes in a system. These steps don’t underline the control point notion witch is fundamental in an extended system. This control point concept is the basis of Hazard Analysis and Critical Control Point (HACCP) method for risk management. Besides, HACCP has successfully been combined with FMEA in order to improve its performance. Hazard Analysis and Critical Control Point is a systematic method for the identification, assessment and control of hazards. International organizations have recognized the successful use of this method for food safety management and its application is extended to medical area. In our study, we present an improved combined approach of FMEA and HACCP using a risk prioritization technique by Risk Priority Rank (RPR) so as to solve limits presented by the conventional RPN method and take advantage from the control point notion in FMEA when it is used in a supply chain context. This combined approach applied in the international transportation area specifically on the container supply chain for security risk management, enable an efficient risk prioritization, weights allocation to risk factors according to this context, an effective decision making about risks. L’Analyse des Modes de Défaillances, de leurs effets et de leur criticité (AMDEC), ou Failure Mode and Effect Analysis (FMEA), est largement reconnue comme une technique puissante d’analyse de fiabilité dans divers secteurs. FMEA est une technique de base pour la maîtrise de la qualité. Elle a pour but d’identifier, d’évaluer, de prioriser et d’atténuer les modes de défaillance potentiels des fonctions et/ou composants critiques d’un système avant qu’ils ne se manifestent. Cependant, la méthode conventionnelle d’évaluation et de priorisation des risques par nombre de priorité de risque ou Risk Priority Number (RPN) utilisée dans FMEA présente des limites et a été très critiquée dans la littérature. Pour améliorer la performance de FMEA dans ce sens, l’Intelligence Artificielle a été fréquemment utilisée dans des travaux, et plus particulièrement, les systèmes à base de règles floues. Les étapes de l’analyse FMEA largement décrites dans la littérature se focalisent principalement sur l’identification, l’évaluation et la détection des modes de défaillance possibles du système étudié. Elles ne font pas ressortir la notion de point de contrôle qui est d’une importance primordiale lorsqu’il s’agit d’un système étendu. Cette notion de point de contrôle constitue la base de la méthode traditionnelle de management de risque Hazard Analysis and Critical Control Point (HACCP), qui a d’ailleurs été intégrée avec succès à FMEA dans plusieurs travaux, mais dans le but d’améliorer la performance de HACCP. HACCP, que nous pouvons traduire par l’analyse des aléas et des points critiques de contrôle, est une méthode permettant d’identifier, d’évaluer et de contrôler des dangers et aléas associés au produit étudié. Le succès reconnu de la méthode HACCP dans l’agroalimentaire par les organisations internationales a promu son implémentation dans le secteur de la santé. Dans cet article, nous présentons une approche de combinaison de l’analyse FMEA à la méthode traditionnelle HACCP utilisant une approche de priorisation de risque par rang de priorité de risque (RPR) pour contourner les limites de la méthode conventionnelle de priorisation de risque par nombre de priorité de risque et intégrer la notion de point de contrôle dans l’analyse FMEA dans un contexte de chaîne logistique. Cette approche est testée dans le secteur du transport international, plus précisément sur la chaîne du transport conteneurisé pour la gestion des risques de sûreté. Les résultats de ce travail ont montré que cette combinaison permet une meilleure priorisation du risque, la prise en compte des différents poids des facteurs de risque selon le contexte de l’étude, une meilleure prise de décision sur le risque, et l'amélioration globale de la performance de la technique FMEA.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Systèmes à base de composants concurrents"

1

Farhat, Salman. "Safe Dynamic Reconfiguration of Applications with Features". Electronic Thesis or Diss., Université de Lille (2022-....), 2024. http://www.theses.fr/2024ULILB014.

Texto completo
Resumen
Les applications déployées sur des environnement de type Cloud ou sur des systèmes cyber-physiques nécessitent une reconfiguration fréquente pendant leur exécution pour s'adapter à l'évolution des besoins et des exigences, ce qui souligne l'importance des capacités de reconfiguration dynamique. En outre, ces environnements peuvent étendre et modifier leurs services en cours d'exécution, ce qui nécessite une approche compositionnelle pour permettre la modification des configurations. Pour gérer la variabilité de l'architecture des grands systèmes, les modèles de caractéristiques sont largement utilisés au moment de la conception, avec plusieurs opérateurs définis pour permettre leur composition. Les approches existantes calculent de nouvelles configurations valides soit au moment de la conception, soit au moment de l'exécution, soit les deux, ce qui entraîne d'importants temps de calcul ou de validation pour chaque étape de reconfiguration. En outre, la construction de modèles formels corrects par construction pour gérer les reconfigurations d'applications est une tâche complexe et sujette aux erreurs, et il est nécessaire de l'automatiser autant que possible.Pour relever ces défis, nous proposons une approche appelée FeCo4Reco qui s'appuie sur les modèles de caractéristiques pour générer automatiquement, dans un formalisme basé sur les composants appelé JavaBIP, des modèles de variabilité d'exécution basés sur les composants qui respectent les contraintes du modèle de caractéristiques. Ces modèles de variabilité d'exécution basés sur les composants sont exécutables et peuvent être utilisés à l'exécution pour appliquer les contraintes de variabilité, c'est-à-dire pour garantir la validité (partielle) de toutes les configurations atteignables.Comme les architectures des systèmes complexes peuvent évoluer à l'exécution en acquérant de nouvelles fonctionnalités tout en respectant de nouvelles contraintes, nous définissons des opérateurs de composition pour les modèles de variabilité à l'exécution basés sur des composants qui, non seulement encodent ces opérateurs de composition de modèles de caractéristiques, mais garantissent également une reconfiguration sûre à l'exécution. Pour prouver les propriétés de correction et de composition, nous proposons une nouvelle équivalence UP-bisimulation en plusieurs étapes et l'utilisons pour montrer que les modèles de variabilité d'exécution basés sur les composants préservent la sémantique des modèles de fonctionnalités composés.Pour l'évaluation expérimentale, nous avons démontré l'applicabilité de notre approche dans des scénarios réels en générant un modèle d'exécution basé sur le modèle de caractéristiques de la plateforme cloud Heroku à l'aide de notre approche. Ce modèle est ensuite utilisé pour déployer une application web réelle sur la plateforme Heroku. En outre, nous avons mesuré les surcharges de temps et de mémoire induites par les modèles d'exécution générés sur des systèmes impliquant jusqu'à 300 fonctionnalités. Les résultats montrent que les surcharges sont négligeables, ce qui démontre l'intérêt pratique de notre approche
Cloud applications and cyber-physical systems require frequent reconfiguration at run-time to adapt to changing needs and requirements, highlighting the importance of dynamic reconfiguration capabilities. Additionally, the environment platforms can extend and modify their services at run-time, which necessitates a compositional approach to allow the modifications of the configurations. To manage the variability of large systems' architecture, feature models are widely used at design-time with several operators defined to allow their composition. Existing approaches compute new valid configurations either at design time, at runtime, or both, leading to significant computational or validation overheads for each reconfiguration step. In addition, building correct-by-construction formal models to handle application reconfigurations is a complex and error-prone task, and there is a need to make it automated as far as possible.To address these challenges, we propose an approach named FeCo4Reco that leverages feature models to automatically generate, in a component-based formalism called JavaBIP, component-based run-time variability models that respect the feature model constraints. These component-based run-time variability models are executable and can be used at runtime to enforce the variability constraints, that is, to ensure the (partial) validity of all reachable configurations.As complex systems' architectures may evolve at run-time by acquiring new functionalities while respecting new constraints, we define composition operators for component-based run-time variability models that not only encode these feature model composition operators, but also ensure safe run-time reconfiguration. To prove the correctness and compositionality properties, we propose a novel multi-step UP-bisimulation equivalence and use it to show that the component-based run-time variability models preserve the semantics of the composed feature models.For the experimental evaluation, we demonstrated the applicability of our approach in real-world scenarios by generating a run-time model based on the feature model of the Heroku cloud platform using our approach. This model is then used to deploy a real-world web application on the Heroku platform. Furthermore, we measured the time and memory overheads induced by the generated run-time models on systems involving up to 300 features. The results show that the overheads are negligible, demonstrating the practical interest of our approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Nguyen, Thanh-Hung. "Vérification Constructive des Systèmes à base de Composants". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM020.

Texto completo
Resumen
L'objectif de la thèse est de développer des méthodologies et des outils pour la vérification compositionnelle et incrémentale des systèmes à base de composants. Nous proposons une méthode compositionnelle pour vérifier des propriétés de sûreté. La méthode est basée sur l'utilisation des deux types d'invariants: invariants de composant qui expriment des aspects locaux des systèmes et invariants d'interaction qui caractérisent les contraintes globales induites par les synchronisations entre les composants. Nous offrons des méthodes efficaces pour calculer ces invariants. Nous proposons également une nouvelle technique qui prend la conception incrémentale du système en compte. L'intégration de la vérification dans le processus de conception permet de déceler une erreur dès qu'elle apparaît. En outre, cette technique permet d'éviter de refaire toutes les processus de vérification par la réutilisation de résultats intermédiaires. Il prend des avantages des strutures de systèmes pour faire face à la complexité de la vérification globale et, par conséquent, réduit sensiblement le coût de la vérification en temps et en mémoire utilisée. Les méthodes ont été mises en oevre dans la chaîne d'outil D-Finder. Les résultats expérimentaux obtenus sur des exemples non triviaux et études de cas montrent l'efficacité de notre méthode ainsi que les capacités de D-Finder
The goal of the thesis is to develop theory, methods and tools for the compositional and incremental verification for component-based systems. We propose a compositional verification method for proving safety properties. The method is based on the use of two kinds of invariants: component invariants which express local aspects of systems and interaction invariants which characterize global constraints induced by synchronizations between components. We provide efficient methods for computing these invariants. We also propose a new technique that takes the incremental design of the system into account. The integration of verification into design process allows to detect an error as soon as it appears. Moreover, the technique helps to avoid redoing all the verification process by reusing intermediate verification results. It takes advantage of the system structure for coping with complexity of the global verification and therefore, reduces significantly the cost of verification in both time and memory usage. The methods have been implemented in D-Finder tool-set. The experimental results obtained on non trivial examples and case studies show the efficiency of our methods as well as the capacity of D-Finder
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Nguyen, Thanh-Hung. "Vérification Constructive des Systèmes à base de Composants". Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00485933.

Texto completo
Resumen
L'objectif de la thèse est de développer des méthodologies et des outils pour la vérification compositionnelle et incrémentale des systèmes à base de composants. Nous proposons une méthode compositionnelle pour vérifier des propriétés de sûreté. La méthode est basée sur l'utilisation des deux types d'invariants: invariants de composant qui expriment des aspects locaux des systèmes et invariants d'interaction qui caractérisent les contraintes globales induites par les synchronisations fortes entre les composants. Nous offrons des techniques efficaces pour calculer ces invariants. Nous proposons également une nouvelle méthode de vérification incrémentale qui prend la conception incrémentale du système en compte. L'intégration de la vérification dans le processus de conception permet de déceler une erreur dès qu'elle apparaît. En outre, cette méthode permet d'éviter de refaire tous les processus de vérification par la réutilisation de résultats intermédiaires. Elle prend des avantages des structures de systèmes pour faire face à la complexité de la vérification globale et, par conséquent, réduit significativement le coût de la vérification en temps et en mémoire utilisée. Les méthodes compositionnelles et incrémentales ont été mises en oeuvre dans la chaîne d'outil D-Finder. Les résultats expérimentaux obtenus sur plusieurs études de cas non triviales montrent l'efficacité de nos méthodes ainsi que les capacités de D-Finder.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ben, Hafaiedh Imane. "Systèmes à base de composants : du design à l'implémentation". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00573291.

Texto completo
Resumen
Dans cette thèse, nous nous sommes intéressés aux design, vérification et implémentation des systèmes à base de composants. Nous proposons d'abord une méthodologie de design et de vérification compositionelle et incrémentale à base de contrats pour les systèmes de composants. Nous proposons ensuite une implémentation distribuée qui permet de préserver certaines properiétés globales de ces systèmes. La méthodologie de design proposée utilise les contrats comme un moyen de contraindre, raffiner et d'implémenter les systèmes. Elle est basée sur un formalisme de contracts générique, que nous instancions pour un formalisme de composants permettant la description des propriétés de progrés. Nous étendons cette méthodologie pour raisonner sur des systèmes de taille arbitraire et nous prouvons son utilité pour vérifier des propriétés de sûreté et de progrés d'un réseau de noeuds distribués. Dans le contexte des systèmes distribués, les systèmes doivent être implémenter de manière distribuée. Nous proposons dans cette thèse un protocole qui permet l'exécution distribuée des systèmes tout en préservant certaines propriétés globales à savoir des synchronisations et des priorités et où les composants interagissent par échange de messages. Nous proposons également une implémentation du protocole pour une plateforme particulière.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Al, Masri Nada. "Modèle d'Administration des Systèmes Distribués à Base de Composants". Phd thesis, INSA de Lyon, 2005. http://tel.archives-ouvertes.fr/tel-00474407.

Texto completo
Resumen
Component-Oriented Systems are increasingly evolving and being adopted by both industrial and academic worlds. They have resulted from the advances achieved in both software engineering and distributed systems. Component models such as JavaBeans, COM, CORBA were presented as reusable components that can be composed together to get a complete software. At the same time, advances in distributed systems lead to another type of component models such as EJB, DCOM and CCM that treat the distribution as their main objective. Platforms conforming to these models support a number of middleware services that facilitates the distribution without explicit intervention from the system developers. These platforms can be seen as dedicated hosting servers of the applications' components. In our works, we concentrate on the EJB component model; we present an administration platform for a federation of servers cooperating to host a number of applications. The federation includes different servers with different configurations, characteristics, services and resources. Our main objective is to manage the deployment of EJB components in the federation depending on their needs to the available resources and services offered by the servers. The proposed administration platform is based on the JMX instrumentation platform. We propose a 3-level instrumentation model to collect management information from 3 environment levels: network and system low level, application server level, and components level. The administration platform gets all necessary information about the execution environment from this instrumentation platform modeled in 3 levels where all the elements are also modeled as managed objects. Furthermore, the administration platform defines a number of services to control the deployment management in the federation such as a migration service, EJB evaluation service, and EJB instrumentation service. Beside these services, we define a number of rules to consider while taking decision concerning the deployment process and the communication between the application servers. To apply a non-centralized management over the nodes of the federation, we propose deploying the administration services on all servers in the federation to get a distributed management.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Youssef, Lilia. "Construction de systèmes répartis sécurisés à base de composants". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00721746.

Texto completo
Resumen
L'objectif de ce travail est de fournir des modèles et outils pour simplifier la construction des systèmes distribués à base de composants sécurisés, ainsi que la gestion des propriétés de sécurité, en utilisant des outils de haut niveau d'abstraction pour la configuration et la reconfiguration dynamique. En plus des propriétés d'accessibilité et de communications sécurisées classiques, nous focalisons notre travail sur une propriété des systèmes répartis plus générale : la non-interférence. Cette propriété atteste qu'il ne doit pas y avoir de flux d'information entre des parties publiques et privées du système. Ce qui implique le suivi de l'acheminement de l'information entre les différentes composantes du système distribué. Notre objectif principal est donc de proposer un modèle, accompagné d'un ensemble d'outils, garantissant la propriété de la non-interférence à la construction du système, et ce à une plus grosse granularité : celle des composants. Ces outils permettent de (1) configurer les paramètres de sécurité des composants et des liaisons entre eux, (2) vérifier la propriété de non-interférence dans le code d'un composant et entre les différents composants du système et (3) générer automatiquement le code nécessaire pour appliquer ces propriétés de sécurité. D'autre part, nous proposons une architecture permettant de vérifier dynamiquement la propriété de non-interférence dans un système réparti.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hamouche, Rédha. "Modélisation des systèmes embarqués à base de composants et d'aspects". Evry-Val d'Essonne, 2004. http://www.theses.fr/2004EVRY0015.

Texto completo
Resumen
Cette thèse s'inscrit dans le cadre de la définition d'une approche de modélisation qui permet de faire face à la complexité des systèmes embarqués, réduire leur temps de conception et couvrir différents domaines d'applications (Modèles de Traitement). Cette approche, appelée ModelJ, est basée sur le paradigme de composant et le paradigme d'aspect. Elle explore le potentiel de ces nouveaux paradigmes logiciels, apparus récemment, dans le cadre de la modélisation des systèmes embarqués. L'approche propose d'une part, un métamodèle indépendant de tout langage de modélisation, qui permet de fournir des modèles abstraits , réutilisables et modulaires contribuant à faciliter la modélisation des systèmes embarqués, et d'autre part de proposer un framework qui met en oeuvre le métamodèle et qui fournit un environnement logiciel pour la définition de modèles et la validation de ceux-ci par simulation
This thesis work address embedded systems design. It proposes a modelling approach that faces the complexity of theses systems, reduces their design time and covers their different and multiple application domains (Models of Computation). This approach, called ModelJ, is based on two main paradigms recently appeared in software engineeriing : the component and the aspect paradigms. The component paradigm addresses the system complexity and improves reusability where as the aspect paradigm deals with the flexibility and adaptability of system descriptions. The proposed approach defines a metamodel and a framework. The metamodel provides a set of reusable and modular abstract models for describing the embedded system in a language-independent way. The framework is the software environment that implements the defined metamodel and allows to model, develop and simulate the system
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Skiba, Karima. "Modélisation de systèmes intégrés à base de composants électroniques virtuels". Grenoble INPG, 2002. http://www.theses.fr/2002INPG0088.

Texto completo
Resumen
Cette thèse s'est interessée à un paradigme récent à savoir la conception collaborative, autour de l'intranet, des systèmes intégrés fondée sur l'utilisation d'IPs. Elle s'est intéressée en particulier à la gestion de données de conception d'IPs et de leur transfert autour de l'intranet. Il s'agit donc de proposer des méthodologies et des outils permettant de décrire, de modéliser, de valider, et d'échanger des fichiers de conception et de validation à différents niveaux d'abstraction. La première difficulté liée à l'utilisation des IPs est leur qualification. Une partie de cette thèse a été consacrée à une étude de systhèse sur les stratégies et les outils de validation. Le deuxième problème de la conception collaborative concerne la modélisation et l'échange des fichiers de conception et de validation d'IPs. La partie clé de cette thèse aborde ce sujet. Dans un premier temps une méthodologie de description de données descriptives d'IPs a été mise en place dans une description dite "description catalogue". Ensuite, une technique de modélisation d'IPS à partie de son flot de conception dite "profilage d'IPs" a été définie pour décrire et stocker ses fichiers de conception. Une modélisation hiérarchique de systèmes intégrés à base d'IPs est présentée. Elle assure une gestion de l'échange des données de conception d'IPs fondée sur représentation des répertoires des fichiers par une DTD (document type) XML. Ce travail a contribué aux travaux de VCT "Virtual Component Transfer de VSIA", du projet européen "TOOLIP de MEDEA+" et a mené à une proposition de standardisation. Ces deux dermières initiatives focalisant leurs efforts à la définition et à la réalisation des normes, des méthodes et des outils d'échange d'IPs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Renaux, Emmanuel. "Définition d'une démarche de conception de systèmes à base de composants". Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Texto completo
Resumen
Ce travail s'inscrit dans le domaine du génie logiciel et traite de la conception d'applications distribuées à base de composants. La plupart des industriels utilise des technologies à base de composants telles que les environnements distribués Corba ou EJB. La notion de composants améliore la qualité du logiciel, c'est une unité de code robuste et éprouvée. Or, la conception d'applications grâce à des démarches de type Processus Unifié, ne garantit pas l'identification et donc la réutilisation de composants préfabriqués. En fait, l'identification, la réutilisation et la conception de composants ne sont pas correctement prises en compte par les concepts introduits par la notation UML. Enfin, le portage des modèles UML vers les plate-formes technologiques n'est pas direct et demande de nombreux choix de conception, ce qui rend la tâche complexe et coûteuse. L'objectif de la thèse est de fournir aux concepteurs un cadre méthodologique, ainsi qu'un environnement complet pour la conception d'applications à base de composants et la génération de code vers des technologies spécifiques permettant le développement d'applications dans des environnements distribués. Nous proposons un formalisme de modélisation à base de composants articulé autour de quatre vues correspondant à quatre préoccupations de l'ingénierie logicielle
La vue de cas d'utilisation permet de décrire les besoins des utilisateurs finaux et les dépendances entre composants au niveau fonctionnel. La vue d'interactions des éléments du système donne une représentation plus fine des dépendances entre composants par échange de message et permet de définir les interfaces. La vue de conception de composants décrit la structure des composants. La vue d'assemblage des composants logiques décrit le modèle du système. Chaque vue est décrite par une partie du méta-modèle définissant les concepts mis en jeu et leurs relations. Ce méta-modèle garantit la cohérence entre les vues et les activités sous-jacentes. Ce formalisme, ainsi que la démarche améliorent le portage des composants modélisés vers des composants de plate-formes technologiques spécifiques. Cependant, la projection vers ces plate-formes reste difficile. Elle peut être assistée par le biais de projections vers des modèles intermédiaires. La thèse présente l'implantation d'une chaîne globale de conception de composants qui s'appuie principalement sur l'atelier ouvert Eclipse utilisé aussi bien dans l'industrie que dans le monde académique. L'implantation d'un modèle intermédiaire par un framework enrichissant le modèle EJB, montre que cette démarche augmente la productivité de systèmes à base de composants. Ils sont mieux conçus et les possibilités de courtage et de réutilisation de composants préfabriqués sont accrues. Enfin, l'étude d'un mécanisme d'extensibilité de notre modèle offre des perspectives d'adaptation de notre travail à d'autres paradigmes et d'autres démarches qui devraient permettre une exploitation plus large de notre travail
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Navas, Juan F. "Une infrastructure pour l'optimisation de systèmes embarqués évolutifs à base de composants logiciels". Brest, 2011. http://www.theses.fr/2011BRES2013.

Texto completo
Resumen
Concernant la partie logicielle des systèmes embarqués, on constate le besoin d’un modèle de la structuration du logiciel qui facilite le processus de développement, la capacité de faire évoluer le comportement du système lors de son exécution, afin de s’adapter aux changements de son environnement, et la prise en compte des limitations des ressources physiques des plates-formes d’exécution. L’utilisation de composants logiciels est une approche de conception qui, via l'abstraction des détails techniques, facilite la gestion de la complexité du logiciel. La question que nous nous posons est : comment les composants doivent être développés de façon à satisfaire les exigences liées aux fortes contraintes physiques et au besoin d’évolution du logiciel ? Pour y répondre, nous introduisons a notion de réification de composant. Une réification est une collection de données et de comportements qui encapsulent des aspects du composant à un moment précis de son cycle de vie. Nous proposons ensuite des techniques d’optimisation pour la génération du code « glue » qui assure l’interopérabilité des composants, afin de satisfaire les contraintes liées aux ressources limitées. Elles rendent possible la définition de niveaux d’optimisation pour chaque instance des entités du modèle à composants, ce qui nous permet de régler la performance du logiciel en fonction de ses besoins (extra) fonctionnels. Ensuite, nous définissons quatre profils d’évolution en fonction des caractéristiques d’évolution de chaque entité du modèle, et nous mettons en place des infrastructures d’évolution adaptées aux besoins d’évolution du système, couplées avec les exigences de performance du logiciel
Regarding embedded systems software which is open to change, we find (i) the need for a model of the structuring of software that facilitates the development process, (ii) the ability to make evolve the system behavior at execution-time, to adapt to changes in its environment, and (iii) the accounting of the physical resources limitations in execution platforms. The use of software components is a design approach which, though the abstraction of technical details, cases software complexity management. It meets the first requirement and is the basis of our proposals. Based on this approach, we intend to answer the following question: how components should be developed to satisfy the requirements that derive from strong physical constraints and the need of software evolution? To answer this question, we first introduce the notion of component reification. A reification is a collection of data and behaviors that encapsulate aspects of the component at a specific point of its life-cycle. Based in this concept, we then propose optimization techniques for the generation of the glue code that ensures the interoperability of components, in order to satisfy the physical constraints due to limited resources. These techniques make possible the definition of optimization levels for each instance of the component model entities, which allows us to adjust the performance of the software to its (extra)functional needs. Then, we define four categories of evolution based on evolution my characteristics of each entity of the model, and we deploy an evolution infrastructure tailored to the systems evolution needs, coupled with the softwares performance requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía