Добірка наукової літератури з теми "Optimisation Sans Contrainte"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Optimisation Sans Contrainte".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Optimisation Sans Contrainte":

1

Djeddi, Fadila, Mouloud Mohellebi, and Ahmed Ouibrahim. "Optimisation des propriétés mécaniques de matériaux polymériques par les mélanges et effet bénéfique du vieillissement thermique." Matériaux & Techniques 107, no. 6 (2019): 604. http://dx.doi.org/10.1051/mattech/2020001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On cherche ici les propriétés mécaniques optimales de matériaux polymériques par mélangeage mécanique de deux polypropylènes et leur amélioration sous l’effet du vieillissement thermique. Ces mélanges de polypropylène homopolymère (PPH) et de polypropylène copolymère (PPC) sont élaborés sans additif ni compatibilisant. Leurs températures de fusion et leurs indices de fluidité sont déterminés par caractérisation physico-chimique. Les valeurs trouvées suggèrent l’injection comme procédé d’élaboration. Les caractérisations chimique et mécanique ont mis en évidence d’une part, la miscibilité des deux polymères et, d’autre part, des propriétés mécaniques intéressantes des deux polymères. Le PPH présente une bonne résistance à la traction avec un grand allongement à la rupture, mais une faible résistance aux chocs. Le PPC manifeste une bonne résistance aux chocs avec une faible contrainte limite élastique et un faible allongement à la rupture. L’introduction de 30 % de PPC dans la matrice PPH conduit, relativement au PPH, à accroître de 94 % la résistance aux chocs pour une diminution de 6 % seulement de la contrainte limite élastique et du module d’élasticité, l’allongement à la rupture restant égal à celui du PPH. Le vieillissement thermique accéléré améliore la rigidité et la contrainte limite élastique, mais diminue la résilience et l’allongement à la rupture.
2

BONNEAU, M., J. Y. DOURMAD, B. LEBRET, M. C. MEUNIER-SALAÜN, S. ESPAGNOL, Y. SALAÜN, P. LETERME, and H. VAN DER WERF. "Evaluation globale des systèmes de production porcine et leur optimisation au niveau de l’exploitation." INRAE Productions Animales 21, no. 4 (September 27, 2008): 367–86. http://dx.doi.org/10.20870/productions-animales.2008.21.4.3413.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article résume les apports du programme «Porcherie verte» dans l’évaluation globale intégrée des systèmes de production porcine, prenant en compte à différentes échelles les diverses dimensions pertinentes de la durabilité, au-delà des seuls impacts environnementaux. La comparaison multicritères de deux types de conduite d’élevage prend en compte l’ensemble des dimensions de la durabilité (environnement, société, économie) mais à une échelle restreinte à l’atelier d’élevage porcin. Comparativement aux animaux élevés sur caillebotis, les porcs élevés sur litière avec accès à une courette bénéficient d’un meilleur bien-être, ont de meilleures performances de croissance mais leurs carcasses peuvent être plus grasses. Leurs viandes peuvent avoir une moindre qualité technologique, mais une meilleure qualité sensorielle. Ce type de conduite produit nettement moins d’odeurs désagréables mais il est plus coûteux. Les produits peuvent cependant potentiellement être mieux valorisés par un label. La modélisation visant une optimisation au niveau de l’exploitation prend en compte les dimensions environnementales et économiques, mais pas sociétales, pour comparer différentes filières de gestion des effluents. L’échelle d’approche est plus large que dans l’étude précédente pour prendre en compte les interactions entre productions animales et végétales sur le territoire de l’exploitation qui correspond à un échelon décisionnel fondamental en agriculture. La filière «Lisier brut» conduit à la meilleure marge brute marginale, avec de bons bilans environnementaux, mais la production est limitée à 60 porcs à l’ha. Le traitement biologique du lisier sans séparation de phases permet d’augmenter la production de porcs mais détériore le bilan apparent de phosphore de l’exploitation et réduit significativement la marge brute par porc produit. La mise en œuvre d’un procédé de séparation de phases préalablement au traitement biologique du lisier permet d’augmenter encore la production de porcs en respectant des contraintes environnementales sur le phosphore, mais il réduit encore plus la marge brute par porc produit. Le compostage du lisier peut être une alternative au traitement biologique pour les petites exploitations, mais son bilan environnemental est médiocre. L’exportation du compost de lisier allège les bilans apparents de N et de P de l’exploitation mais ne change pas les émissions gazeuses. Il permet de maintenir une bonne marge brute, même aux chargements élevés. L’élevage de porcs sur litière permet de produire plus de porcs à l’ha mais au prix d’une dégradation de l’impact environnemental et d’une augmentation des coûts de production. Le compostage du fumier des litières permet d’augmenter la production de porcs à l’ha, mais uniquement en l’absence de contrainte environnementale sur le phosphore, et l’accroissement marginal de marge brute est faible. L’exportation du compost excédentaire permet d’augmenter encore la production de porcs en allégeant les bilans apparents de N et P, mais pas les émissions gazeuses. Parmi les filières avec traitement, qui autorisent des chargements élevés, le traitement biologique semble réaliser le meilleur compromis entre marge brute réalisée et impact sur l’environnement, si l’on néglige les transferts d’impacts hors de l’exploitation. Parmi les filières avec traitement et exportation, qui permettent des niveaux de chargement très élevés, le compostage de fumier semble cumuler les inconvénients en termes de marge brute et d’impacts environnementaux, si l’on néglige les transferts d’impacts hors de l’exploitation associés au traitement biologique. L’évaluation globale de l’impact environnemental des élevages porcins est restreinte à la dimension environnementale mais son échelle d’approche permet d’intégrer l’ensemble des impacts associés aux processus en amont de l’exploitation L’analyse de cycle de vie (ACV) est une méthode de choix pour faire cette évaluation et a été mise en œuvre pour comparer les impacts environnementaux de trois scénarios contrastés de production porcine. La production la plus intensive, suivant le scénario des bonnes pratiques agricoles, a le plus faible impact sur le changement climatique, mais le plus fort impact sur l’acidification. La production biologique, peu intensive, consomme beaucoup de surfaces, mais elle a le plus faible impact sur l’eutrophisation. De façon générale, les meilleurs compromis entre coûts de production et respect de l’environnement sont obtenus par les systèmes les plus économes en surface, qui utilisent au mieux les capacités du sol à produire de l’aliment pour les animaux et à recevoir leurs effluents. L’absence de lien au sol coûte cher en argent et en impact écologique.
3

Babeau, André, and Françoise Charpin. "Détermination du financement optimal d'un logement par la théorie du cycle de vie." Revue de l'OFCE 47, no. 5 (November 1, 1993): 67–90. http://dx.doi.org/10.3917/reof.p1993.47n1.0067.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé L 'objet de cet article est d'étudier les conditions optimales de financement d'un achat de logement en utilisant la théorie du cycle de vie. On détermine ainsi la date optimale d'achat, le taux d'apport personnel et la durée de remboursement du prêt, ceci pour un montant d'achat donné. On s'intéresse aussi aux modalités de financement obtenues pour toutes les dates d'achat conduisant à un investissement logement intéressant. Dans un premier modèle d'optimisation, l'agent peut emprunter sans restriction et rembourser le prêt sur une durée de son choix. Il apparaît que, lorsque l'agent achète relativement tôt au cours du cycle de vie, il souhaite emprunter plus que ce que les organismes de crédit accordent actuellement et sur une durée plus longue que celles ordinairement pratiquées. Aussi, dans un deuxième temps, le modèle est résolu en tenant compte des contraintes institutionnelles de financement, à savoir, une restriction sur le montant emprunté, sur la durée de l'emprunt et éventuellement, une constitution réglementée de l'apport personnel. La comparaison des deux optimisations (libre et contrainte) permet d'apprécier le rôle des contraintes institutionnelles et de les hiérarchiser. On présente également des simulations numériques permettant de décrire l'effet d'une baisse du taux d'emprunt, d'une hausse du prix relatif du logement, d'une modification de l'inflation et d'une variation du montant de l'achat. Enfin, on examine comment l'achat d'un logement modifie le profil de consommation d'un agent au cours du cycle de vie.
4

SAILLEY, Manon, Cécile CORDIER, Jean-Yves COURTONNE, Boris DUFLOT, François CADUDAL, Christophe PERROT, Aude BRION, and René BAUMONT. "Quantifier et segmenter les flux de matières premières utilisées en France par l’alimentation animale." INRAE Productions Animales 34, no. 4 (March 3, 2022): 273–92. http://dx.doi.org/10.20870/productions-animales.2021.34.4.5396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les attentes sociétales relatives à l’alimentation des animaux d’élevage s’intensifient (sans OGM, sans déforestation importée, limitant la compétition avec l’alimentation humaine, enrichi en Oméga 3 et/ou 6…) et deviennent parfois une condition d’accès au marché pour certaines productions animales. Afin de construire une méthodologie permettant une segmentation détaillée des consommations de matières premières par filière animale, le Groupement d’Intérêt Scientifique Avenir Élevages a mobilisé un réseau d’experts des différentes filières. Une méthode de réconciliation des flux avec optimisation sous contraintes a été utilisée pour mettre en cohérence les différentes sources de données disponibles et ainsi dresser un panorama complet des flux de matières premières (grains, coproduits et fourrages) dans le système alimentaire de France métropolitaine (alimentation humaine et animale, export, énergie…). Pour l’année 2015, le total des utilisations animales de matières premières concentrées a été évalué autour de 34 Mt standardisées à 85 % de matière sèche et celles de fourrages entre 70 et 72,5 Mt de matière sèche (pertes et refus déduits). Les filières bovines étaient les premières utilisatrices de matières premières concentrées (37 % au total dont 25 % pour les bovins laitiers et mixtes et 12 % pour les bovins à viande), devant les volailles (34 %) et les porcs (23 %). L’utilisation du tourteau de soja apparaît encore plus ciblée : 43 % pour les bovins (36 % pour les laitiers et mites et 7 % pour ceux à viande), 43 % également pour les volailles (dont 29 % pour les volailles de chair), et 6 % pour les porcs. La méthodologie « flux de matières premières » développée dans ce travail permet de fournir des repères précis sur l’alimentation des animaux d’élevage, sa durabilité, l’importance de l’élevage dans la valorisation des coproduits issus de l’agro-alimentaire ou encore l’autonomie alimentaire et protéique de l’élevage français. Sa pérennisation dans un observatoire des flux de matières premières utilisées en alimentation animale est à l’étude afin de disposer d’un suivi pluriannuel de l’évolution des consommations.
5

MALGOYRE, A., H. SANCHEZ, and N. KOULMANN. "Ethique du sport et éthique de la guerre : optimisation des performances physiques du combattant." Revue Médecine et Armées, Volume 43, Numéro 3 (June 1, 2015): 257–64. http://dx.doi.org/10.17184/eac.6885.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les capacités physiques du soldat sont un point déterminant de son efficacité au combat. Partant de ce constat, améliorer le potentiel physique est un objectif légitime du commandement pour la réussite de la mission. En parallèle, le commandement a aussi le devoir de garantir la sécurité des combattants. Ainsi, le port de protections balistiques pour mieux protéger le soldat a aussi ajouté de nouvelles contraintes physiques auxquelles le combattant doit pouvoir faire face mais pas par tous les moyens. Cela nécessite de nouvelles stratégies de préparation physique, peut-être une redéfinition des normes d’aptitude, des améliorations techniques et une doctrine d’emploi ajustée au risque. Être mieux préparé, mieux protégé que l’adversaire fait partie de l’objectif même de la guerre et se distingue ainsi du principe d’équité des chances entre compétiteurs dans les rencontres sportives. Ainsi la notion de dopage issue du monde sportif ne peut s’appliquer en tant que telle aux conditions de combat. Si l’augmentation des performances humaines ne peut être d’emblée rejetée dans le cadre d’une éthique appliquée au combat (qui ne dépend pas du cadre législatif du sport de haut niveau), toute action envisagée aura pour nécessité non négociable de ne pas nuire à la santé de l’homme non seulement à court terme mais aussi à long terme. L’évaluation du rapport bénéfices-risques est essentielle quand il s’agit d’améliorer la performance physique d’hommes sains. Les différents moyens envisagés pour augmenter les capacités physiques seront abordés ici, avec un souci de hiérarchisation en termes d’efficacité, de sécurité et d’acceptabilité pour le soldat. Enfin, chercheur et médecin ont un rôle important à tenir dans cette réflexion pour garantir la préservation de l’état de santé du militaire et son devenir au-delà des enjeux opérationnels de la mission. C’est la notion même de conseil éclairé au commandement et au soldat qui se pose au médecin, et qui nécessite une double approche scientifique et éthique.
6

Adda, Asma, Wahib Mohamed Naceur, and Mohamed Abbas. "Modélisation et optimisation de la consommation d’énergie d’une station de dessalement par procédé d’osmose inverse en Algérie." Journal of Renewable Energies 19, no. 2 (January 9, 2024). http://dx.doi.org/10.54966/jreen.v19i2.557.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
ActuellementActuellement Actuellement ActuellementActuellement, le coût énergétique du procédé de dessalement d’osmose inverse représente jusqu’à 50 % du coût du mètre cube d’eau produite. La réduction de la consommation spécifique d’énergie est un enjeu majeur afin de satisfaire la demande croissante avec meilleure qualité et à moindre coût. L’objectif de cette étude est de minimiser les consommations énergétiques spécifiques des stations de dessalement basées sur le procédé d’osmose inverse. Un modèle mathématique a été développé et un programme sous l’environnement Matlab a été élaboré en utilisant la méthode du gradient projeté dont le principe de base est le calcul des dérivés sous contraintes. Plusieurs configurations ont été étudiées à savoir, un système sans récupération d’énergie, et avec récupération d’énergie en utilisant un échangeur de pression PX. Les résultats obtenus montrent que le système de récupération par un échangeur de pression est de loin le meilleur dispositif permettant d’atteindre une consommation spécifique d’énergie minimale variant de 2.17 à 2.27 kWh/m3.

Дисертації з теми "Optimisation Sans Contrainte":

1

Kchouk, Bilel. "Méthodes de Chebyshev d'ordres supérieurs pour l'optimisation non linéaire, sans contrainte et différentiable." Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6682.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette Thèse par article, nous nous intéressons au domaine de l'optimisation sans contrainte, non linéaire et différentiable. En considérant la recherche d'un optimum de la fonction f : R[indice supérieur n] [flèche vers la droite] R, on se restreint dans ce travail à chercher une racine x* de la fonction F = [triangle pointant vers le bas] f : R[indice supérieur n] [flèche vers la droite] R[indice supérieur n], c'est-à-dire un point stationnaire de la fonction f. Notre objectif a été de proposer une vision "différente" des méthodes d'ordres supérieurs. À cet effet, cette Thèse regroupera quatre articles qui soulignent le cheminement de notre travail de doctorat et la logique de notre recherche. Dans un premier article, qui servira d'introduction et de mise en contexte de cette Thèse, nous revenons sur les méthodes connues d'ordres supérieurs. Les méthodes de Newton, Chebyshev, Halley et SuperHalley ont en effet été étudiées dans différents travaux. Dans cet article, nous exhibons certaines problématiques reliées à ces méthodes : comment formuler correctement et intelligemment les méthodes utilisant des dérivées d'ordres supérieurs, comment mieux calculer leur complexité, comment vérifier leur convergence. Dans un second article, l'idée des méthodes d'ordres supérieures perçues comme directions de déplacement est proposée. En réalité, cet article exploratoire pose les bases de notre idée principale, les pistes de réflexion, les sources d'optimisme quand [i.e. quant] à l'efficacité de telles méthodes. Nous y proposons deux familles de méthodes : celle de type Halley, qui généralise et regroupe les méthodes de Halley et SuperHalley ; et celle de type Chebyshev, qui englobe et développe les algorithmes de Newton, Chebyshev, et les méthodes d'extrapolations de Jean-Pierre Dussault. Par ailleurs, dans ce chapitre, nous démontrons les propriétés de convergence (dans le cas réel) de telles méthodes et les illustrons dans un cas spécifique. Le troisième article constitue quant à lui le coeur de notre travail. Certaines pistes proposées dans le précédent article ont été abandonnées (la famille de méthode Halley) au profit d'autres plus prometteuses (la famille Chebyshev). Dans ce chapitre, nous élaborons et définissons précisément les méthodes de type Chebyshev d'ordres supérieurs. Une formulation plus globale nous permet d'y regrouper les méthodes d'extrapolations d'ordres supérieurs à 3. La convergence dans R[indice supérieur n] est démontrée (et non plus simplement dans le cas scalaire). Pour cela, nous nous appuyons sur la méthode de Shamanskii, que l'on retrouvera en fin d'article et au chapitre 4. Dans cet article, nous accordons une importance primordiale à la notion d'efficacité d'un algorithme, et en ce sens, nous définissons plus minutieusement (que la quasi-totalité des articles consultés) la notion de coût de calcul d'un algorithme. Cela nous permet de montrer que les méthodes de Chebyshev d'ordres supérieurs concurrencent les méthodes de Shamanskii (c'est-à-dire la méthode de Shamanskii à différents ordres d'itérations), connues pour être des références difficilement battables. En ce sens, plus les problèmes étudiés ont une grande taille, plus l'efficacité de nos méthodes est optimale, en comparaison avec d'autres algorithmes. La partie annexe concerne un complément, effectué dans le cadre de notre recherche. N'ayant pas été publié, nous en énoncons les résultats principaux comme piste de recherche. En effet, nos travaux ont concerné les problèmes en optimisation sans distinction autre que celle du domaine précis d'étude (des fonctions différentiables, sans contraintes, non linéaires). Or dans de nombreux cas, les problèmes que l'on cherche à minimiser ont des structures particulières : certaines fonctions ont des Hessiens creux, dont les éléments nuls sont structurés et identifiables. Autrement dit, il est concevable d'affiner nos travaux pour des cas plus spécifiques, ceux des systèmes dits "sparse". En particulier, les systèmes par bande constituent une illustration récurrente de ce type de fonctions. Nous revenons donc avec certains détails de coûts de calculs et d'efficacités de certains algorithmes présentés dans nos articles.
2

Kortas, Manel. "Optimisation de la liaison montante pour un réseau de capteurs sans fil avec la contrainte d'énergie." Thesis, Limoges, 2020. http://aurore.unilim.fr/theses/nxfile/default/45adbe14-0f06-4b36-9fb7-80441c295210/blobholder:0/2020LIMO0025.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la collecte de données avec la contrainte d'énergie pour les réseaux de capteurs sans fil (RCSFs). En effet, il existe plusieurs défis qui peuvent perturber le bon fonctionnement de ce type de réseaux. Par exemple, les applications des RCSFs doivent faire face aux capacités très limitées en termes d’énergie, de mémoire et de traitement des nœuds de capteurs. De plus, à mesure que la taille de ces réseaux continue de croître, la quantité de données à traiter et à transmettre devient énorme. Dans de nombreux cas pratiques, les capteurs sans fil sont répartis sur un champ physique afin de surveiller les phénomènes physiques à forte corrélation spatio-temporelle. Par conséquent, l'objectif principal de cette thèse est de réduire la quantité de données traitées et transmises dans le scénario de collecte de données. Dans la première partie de cette thèse, nous utilisons le Compressive Sensing (CS), une technique prometteuse pour exploiter cette corrélation afin de limiter le nombre de transmissions et ainsi augmenter la durée de vie du réseau. En règle générale, nous nous intéressons à la topologie de réseau maillé, où le point de collecte de données n'est pas situé dans le rayon de communication du capteur transmetteur et des schémas de routage doivent être alors appliqués. Nous proposons le Space-Time Compressive Sensing (STCS) en exploitant conjointement la dépendance de données inter-capteurs et intra-capteur. De plus, comme le routage et le nombre de retransmissions affectent de manière significative la consommation totale d’énergie, nous introduisons le routage dans notre fonction de coût afin d’optimiser la sélection des capteurs de transmission. Les simulations montrent que cette méthode surpasse les méthodes existantes et confirment la validité de notre approche. Dans la deuxième partie de cette thèse, nous tentons de traiter un désign d’économie d’énergie presque similaire à celui proposé dans la première partie avec l’utilisation de la méthodologie de Matrix Completion (MC). Précisément, nous supposons qu'un nombre limité de nœuds de capteurs sont sélectionnés pour être actifs et représenter l'ensemble du réseau, tandis que les autres nœuds restent inactifs et ne participent pas du tout à la détection et à la transmission de leurs données. Bien que l'application d'un taux de compression des données élevé réduit considérablement la consommation d'énergie globale du réseau, la durée de vie du réseau n'est pas nécessairement prolongée en raison de l'épuisement inégal des batteries des nœuds de capteurs. A cette fin, dans la troisième partie de cette thèse, nous développons l'approche de collecte de données Energy-Aware Matrix Completion (EAMC), qui désigne les nœuds actifs en fonction de leurs niveaux d'énergies résiduelles. De plus, étant donné que nous sommes principalement intéressés par les scénarios de perte de données élevées, la quantité limitée de données fournies doit être suffisante en termes de qualité informative qu'elle détient afin d'atteindre une précision de récupération bonne et satisfaisante pour l'ensemble des données du réseau. Pour cette raison, l'EAMC sélectionne les nœuds qui peuvent représenter le mieux le réseau en fonction de leur inter-corrélation ainsi que de l'efficacité énergétique du réseau, avec l'utilisation d'une métrique combinée qui est éco-énergétique et basée sur la corrélation. Cette fonction de coût, qu'on a introduit, change avec le type d'application que l'on veut effectuer, dans le but d'atteindre une durée de vie plus longue pour le réseau
In this dissertation, we are interested in the data gathering with energy constraint for Wireless Sensor Networks (WSNs). Yet, there exist several challenges that may disturb a convenient functioning of this kind of networks. Indeed, WSNs' applications have to deal with limited energy, memory and processing capabilities of sensor nodes. Furthermore, as the size of these networks is growing continually, the amount of data for processing and transmitting becomes enormous. In many practical cases, the wireless sensors are distributed across a physical field to monitor physical phenomena with high space-time correlation. Hence, the main focus of this thesis is to reduce the amount of processed and transmitted data in the data gathering scenario. In the first part of this thesis, we consider the Compressive Sensing (CS), which is a promising technique to exploit this correlation in order to limit the number of transmission and therefore increase the lifetime of the network. Typically, we are interested in the mesh network topology, where the sink node is not in the range of sensors and routing schemes must be applied. We propose a joint Space-Time Compressive Sensing (STCS) by exploiting jointly the inter-sensors and intra-sensor data dependency. Moreover, since the routing and the number of retransmission affect significantly the total energy consumption, we introduce the routing in our cost function in order to optimize the selection of the transmitting sensors. Simulation results show that this method outperforms the existing ones and confirm the validity of our approach. In the second part of this thesis, we attempt to address nearly the same twofold energy saving scheme that is investigated in the first part with the use of the Matrix Completion (MC) methodology. Precisely, we assume that a restricted number of sensor nodes are selected to be active and represent the whole network, while the rest of nodes remain idle and do not participate at all in the data sensing and transmission. Furthermore, the set of active nodes' readings is efficiently reduced, in each time slot, according to a cluster scheduling with the Optimized Cluster-based MC data gathering approach (OCBMC). Relying on the existing MC techniques, the sink node is unable to recover the entire data matrix due to the existence of the completely empty rows that correspond to the inactive nodes. Although applying a high data compression ratio extremely reduces the overall network energy consumption, the network lifetime is not necessarily extended due to the uneven energy depletion of the sensor nodes' batteries. To this end, in the third part of this thesis, we have developed the Energy-Aware Matrix Completion based data gathering approach (EAMC), which designates the active nodes according to their residual energy levels. Furthermore, since we are mainly interested in the high data loss scenarios, the limited amount of delivered data must be sufficient in terms of informative quality it holds in order to reach good and satisfactory recovery accuracy for the entire network data. For that reason, the EAMC selects the nodes that can best represent the network depending on their inter-correlation as well as the network energy efficiency, with the use of a combined energy-aware and correlation-based metric. This introduced active node cost function changes with the type of application one wants to perform, with the intention to reach a longer lifespan for the network
3

Raynaud, Paul. "L'exploitation de la structure partiellement-séparable dans les méthodes quasi-Newton pour l'optimisation sans contrainte et l'apprentissage profond." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est centrée autour de l'utilisation de la structure partiellement séparable pour l'optimisation sans contraintes, notamment pour les méthodes quasi-Newton et l'entraînement des réseaux de neurones.Une fonction partiellement séparable somme des fonctions éléments, chacune de dimension inférieure au problème total.Ainsi, le Hessian peut être agrégé en approximant séparément le hessien de chaque fonction élément par une matrice dense.Ces méthodes quasi-Newton partitionnées sont applicables aux problèmes de grandes dimensions et conservent la structure creuse du hessien, contrairement à une méthode quasi-Newton à mémoire limitée.En pratique, ces méthodes réalisent moins d'itérations qu'une méthode quasi-Newton à mémoire limitée, et sont parallélisables en distribuant les calculs reliés aux fonctions éléments.La revue de littérature complète sur le sujet a cependant révélé certaines limitations, particulièrement lorsque la dimension des fonctions éléments est large.De plus, l'unique logiciel libre d'optimisation exploitant la structure partiellement-séparable est inutilisables pour utilisateur non expérimenté, laissant pour seul choix le recourt à des logiciels commerciaux.Dans cette thèse, deux solutions sont proposées pour palier à ces lacunes ainsi qu'une application des concepts d'optimisation partiellement-séparable à l'apprentissage supervisé d'un réseau de neurones.La première contribution est une suite logicielle permettant notamment de détecter automatiquement la structure partiellement-séparable d'un problème, c'est-à-dire la récupération de chaque fonction élément de dimension réduite.Suite à cela, les structures de données partitionnées nécessaires à la mémorisation des dérivées, ou leurs approximations, sont allouées et permettent de définir des méthodes quasi-Newton partitionnées.L'ensemble est intégré à l'écosystème "JuliaSmoothOptimizers", regroupant de nombreux outils pour l'optimisation lisse, dont des algorithmes d'optimisation pouvant exploiter la séparabilité partielle détectée.La seconde contribution remplace l'approximation d'un hessien élément par une matrice dense par un opérateur linéaire quasi-Newton à mémoire limitée.Ce faisant, le coût mémoire de l'approximation totale du hessien n'est plus relié quadratiquement à la dimension des fonctions éléments.Une méthode quasi-Newton partitionnée à mémoire limitée est alors applicable lorsque les fonctions éléments sont de grandes tailles.Chaque méthode quasi-Newton partitionnée à mémoire limitée possède une preuve convergence globale.De plus, les résultats numériques montrent que ces méthodes surpassent les méthodes quasi-Newton partitionnées ou à mémoire limitées lorsque les éléments sont de grandes tailles.La dernière contribution étudie l'exploitation de la structure partiellement-séparable lors l'entraînement supervisé d'un réseau de neurones.Le problème d'optimisation lié à l'entraînement n'est généralement pas partiellement-séparable.Dès lors, une fonction de perte partiellement-séparable ainsi qu'une architecture de réseau partitionnée sont introduites afin de rendre l'entraînement partiellement-séparable.Les résultats numériques combinant ces deux apports sont compétitifs avec des architectures et des fonctions de perte standards selon les méthodes d'entraînement de l'état de l'art.De surcroît, cette combinaison permet un schéma de parallélisation supplémentaire aux méthodes déjà existantes pour l'apprentissage supervisé.En effet, les calculs de chaque fonction de perte élément peuvent être distribués à un travailleur nécessitant seulement une fraction du réseau de neurones pour opérer.Finalement, un entraînement quasi-Newton partitionnée à mémoire limitée est proposé.Cet entrainement est montré empiriquement comme compétitif avec les méthodes d'entraînement de l'état de l'art
This thesis studies and improves the use of the partially-separable structure for unconstrained optimization, particularly for quasi-Newton methods and training neural networks.A partially-separable function is the sum of element functions, each of lower dimension than the total problem.Thus, the Hessian can be aggregated by separately approximating the Hessian of each element function with a dense matrix.These partitioned quasi-Newton methods are applicable to high-dimensional problems and maintain the sparse structure of the Hessian, unlike a limited-memory quasi-Newton method.In practice, these methods require fewer iterations than a limited-memory quasi-Newton method and are parallelizable by distributing computations related to the element functions.However, a comprehensive literature review on the subject has revealed some limitations, particularly when the dimension of the element functions is large.Additionally, the only open-source optimization software exploiting the partially-separable structure is unusable for inexperienced users, leaving only commercial software as an option.In this thesis, two solutions are proposed to address these shortcomings, along with an application of partially-separable optimization concepts to supervised learning of a neural network.The first contribution is a software suite based on an automatic detection of the partially-separable structure of a problem, i.e., retrieves each reduced-dimensional element function.Following this, partitioned data structures necessary for storing derivatives, or their approximations, are allocated and used to define partitioned quasi-Newton optimization methods.The entire suite is integrated into the "JuliaSmoothOptimizers" ecosystem, which gathers numerous tools for smooth optimization, including optimization algorithms that can therefore exploit the detected partial separability.The second contribution replaces the approximation of an element Hessian by a dense matrix with a limited-memory quasi-Newton linear operator.As a result, the memory cost of the total Hessian approximation is no longer quadratically related to the dimension of the element functions.A limited-memory partitioned quasi-Newton method is then applicable when the element functions are large.Each limited-memory partitioned quasi-Newton method has a proof of global convergence.Additionally, numerical results show that these methods outperform partitioned or limited-memory quasi-Newton methods when the elements are large.The final contribution examines the exploitation of the partially-separable structure during supervised training of a neural network.The optimization problem associated with training is generally not partially-separable.Therefore, a partially-separable loss function and a partitioned network architecture are introduced to make the training partially-separable.Numerical results combining these two contributions are competitive with standard architectures and loss functions according to state-of-the-art training methods.Moreover, this combination produces an additional parallelization scheme to existing methods for supervised learning.Indeed, the calculations of each element loss function can be distributed to a worker requiring only a fraction of the neural network to operate.Finally, a limited-memory partitioned quasi-Newton training is proposed.This training is empirically shown to be competitive with state-of-the-art training methods
4

Zayyoun, Najoua. "Optimisation et modélisation du détachement de couches minces de silicium par contrainte thermique avec ou sans guidage de la fracture : application au photovoltaïque." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE3036.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réduction des coûts de production des cellules photovoltaïques et l'augmentation de leur rendement de conversion présentent aujourd’hui un fort intérêt technologique et écologique pour répondre aux problèmes de changement climatique engendrés par les énergies fossiles (charbon, pétrole et gaz naturel). La motivation de cette thèse est l’étude des procédés innovants de production de couches ultra-minces de silicium monocristallin de plusieurs centaines de nanomètres à plusieurs dizaines de micromètres d’épaisseur, basés sur les contraintes thermiques et l’implantation d’hydrogène à basse énergie. Le détachement des couches ultra-minces de silicium se fait sans perte de matière première, permettant ainsi de réduire la consommation du silicium afin de produire des cellules photovoltaïques à bas-coûts.Dans ce travail, nous avons tout d’abord déterminé par modélisation analytique et numérique les contraintes permettant le détachement du silicium par contraintes induites « Controlled-Spalling » et prédit l’épaisseur détachée des couches minces de silicium. Les modèles proposés dépendent des paramètres thermiques et élastiques des matériaux utilisés et de chargement thermique appliqué. Un bon accord entre les résultats théoriques et expérimentaux a été obtenu. Nous avons ensuite étudié les paramètres optimaux conduisant au détachement des films de silicium, à savoir l’épaisseur et la nature du substrat contraignant ainsi que l’épaisseur de la colle. Par la suite, des essais de détachement du silicium par contraintes induites guidé par l’implantation d’hydrogène ont été réalisés. Des caractérisations expérimentales et des simulations FEM des contraintes thermiques induites dans le silicium implanté à différents stades de recuits ont été faites permettant de comprendre les mécanismes mis en jeu lors du détachement du silicium fragilisé. Ensuite, des mesures par différentes techniques (Spectroscopie Raman, Profilomètre optique, MEB, Microscope optique numérique) des contraintes résiduelles et de la rugosité des films détachés par le procédé « Controlled-Spalling » ont été réalisées pour explorer les pistes conduisant à l’amélioration de la qualité de ces films
The reduction of photovoltaic cells cost and the increase of their efficiency is probably one of the best solution to tacle the climate change issues. The mean of this thesis is to study the innovative processes to produce ultra-thin monocrystalline silicon layers without loss of raw material (with thicknesses ranging from several hundred nanometers to several micrometers), by using thermal stress and low energy hydrogen implantation. The use of such kerf-free processes leads to a significant reduction of the silicon consumption, in order to produce of low-cost photovoltaic solar cells.In this work, by using analytical and numerical modeling, we first determined the thermal stresses needed for the detachment of silicon by stress-induced spalling process and predicts the detached thickness of silicon foils. These models depend on thermals and elastics parameters of metal used as well as the applied thermal loading. A good agreement between the theoretical and experimental results was obtained. Furthermore, different optimal parameters leading to the detachment of silicon foils with desired thicknesses using SIS process were investigated such as the thickness of the stressor layer, the nature of stressor layer and the thickness of glue. In a second part, thin silicon layers were transferred as a function of thermal annealing using the stress-induced spalling process guided by hydrogen implantation-induced defects. Then, the use of experimental characterizations and FEM simulations of the thermal stresses induced in implanted silicon we explain the mechanisms involved when combining the two processes. Characterization of silicon foils was performed by various technique in order to validate and optimized the process
5

Maurandi, Victor. "Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques." Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0009/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques
This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals
6

Montalbano, Pierre. "Contraintes linéaires et apprentissage sans conflit pour les modèles graphiques." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30340.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles graphiques définissent une famille de formalismes et d'algorithmes utilisés en particulier pour le raisonnement logique et probabiliste, dans des domaines aussi variés que l'analyse d'image ou le traitement du langage naturel. Ils sont capables d'être appris à partir de données, donnant une information probabiliste qui peut ensuite être combinée avec des informations logiques. Le but de la thèse est d'améliorer l'efficacité des algorithmes de raisonnement sur ces modèles croisant probabilités et logique en généralisant un mécanisme fondamental des outils de raisonnement purement logique parmi les plus efficaces (solveurs SAT) à ce cas hybride mêlant probabilités et logique: l'apprentissage dirigé par les conflits. Les travaux s'appuient sur le concept de dualité en programmation linéaire et conduisent à un apprentissage sans conflit de contraintes linéaires bénéficiant d'un traitement particulier efficace issu de la résolution d'un problème de sac à dos
Graphical models define a family of formalisms and algorithms used in particular for logical and probabilistic reasoning, in fields as varied as image analysis or natural language processing. They are capable of being learned from data, giving probabilistic information that can then be combined with logical information. The goal of the thesis is to improve the efficiency of reasoning algorithms on these models crossing probabilities and logic by generalizing a fundamental mechanism of the most efficient purely logical reasoning tools (SAT solvers) to this hybrid case mixing probabilities and logic: conflict-based learning. The work is based on the concept of duality in linear programming and our learning mechanism is conflict-free, producing linear constraints efficiently solved using a knapsack formulation
7

Medjiah, Samir. "Optimisation des protocoles de routage dans les réseaux multi-sauts sans fil à contraintes." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14663/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant ces dernières années, de nombreux travaux de recherches ont été menés dans le domaine des réseaux multi-sauts sans fil à contraintes (MWNs: Multihop Wireless Networks). Grâce à l'évolution de la technologie des systèmes mico-electro-méchaniques (MEMS) et, depuis peu, les nanotechnologies, les MWNs sont une solution de choix pour une variété de problèmes. Le principal avantage de ces réseaux est leur faible coût de production qui permet de développer des applications ayant un unique cycle de vie. Cependant, si le coût de fabrication des nœuds constituant ce type de réseaux est assez faible, ces nœuds sont aussi limités en capacité en termes de: rayon de transmission radio, bande passante, puissance de calcul, mémoire, énergie, etc. Ainsi, les applications qui visent l'utilisation des MWNs doivent être conçues avec une grande précaution, et plus spécialement la conception de la fonction de routage, vu que les communications radio constituent la tâche la plus consommatrice d'énergie.Le but de cette thèse est d'analyser les différents défis et contraintes qui régissent la conception d'applications utilisant les MWNs. Ces contraintes se répartissent tout le long de la pile protocolaire. On trouve au niveau application des contraintes comme: la qualité de service, la tolérance aux pannes, le modèle de livraison de données au niveau application, etc. Au niveau réseau, on peut citer les problèmes de la dynamicité de la topologie réseau, la présence de trous, la mobilité, etc. Nos contributions dans cette thèse sont centrées sur l'optimisation de la fonction de routage en considérant les besoins de l'application et les contraintes du réseau. Premièrement, nous avons proposé un protocole de routage multi-chemin "en ligne" pour les applications orientées QoS utilisant des réseaux de capteurs multimédia. Ce protocole repose sur la construction de multiples chemins durant la transmission des paquets vers leur destination, c'est-à-dire sans découverte et construction des routes préalables. En permettant des transmissions parallèles, ce protocole améliore la transmission de bout-en-bout en maximisant la bande passante du chemin agrégé et en minimisant les délais. Ainsi, il permet de répondre aux exigences des applications orientées QoS.Deuxièmement, nous avons traité le problème du routage dans les réseaux mobiles tolérants aux délais. Nous avons commencé par étudier la connectivité intermittente entre les différents et nous avons extrait un modèle pour les contacts dans le but pouvoir prédire les future contacts entre les nœuds. En se basant sur ce modèle, nous avons proposé un protocole de routage, qui met à profit la position géographique des nœuds, leurs trajectoires, et la prédiction des futurs contacts dans le but d'améliorer les décisions de routage. Le protocole proposé permet la réduction des délais de bout-en-bout tout en utilisant d'une manière efficace les ressources limitées des nœuds que ce soit en termes de mémoire (pour le stockage des messages dans les files d'attentes) ou la puissance de calcul (pour l'exécution de l'algorithme de prédiction).Finalement, nous avons proposé un mécanisme de contrôle de la topologie avec un algorithme de routage des paquets pour les applications orientés évènement et qui utilisent des réseaux de capteurs sans fil statiques. Le contrôle de la topologie est réalisé à travers l'utilisation d'un algorithme distribué pour l'ordonnancement du cycle de service (sleep/awake). Les paramètres de l'algorithme proposé peuvent être réglés et ajustés en fonction de la taille du voisinage actif désiré (le nombre moyen de voisin actifs pour chaque nœud). Le mécanisme proposé assure un compromis entre le délai pour la notification d'un événement et la consommation d'énergie globale dans le réseau
Great research efforts have been carried out in the field of challenged multihop wireless networks (MWNs). Thanks to the evolution of the Micro-Electro-Mechanical Systems (MEMS) technology and nanotechnologies, multihop wireless networks have been the solution of choice for a plethora of problems. The main advantage of these networks is their low manufacturing cost that permits one-time application lifecycle. However, if nodes are low-costly to produce, they are also less capable in terms of radio range, bandwidth, processing power, memory, energy, etc. Thus, applications need to be carefully designed and especially the routing task because radio communication is the most energy-consuming functionality and energy is the main issue for challenged multihop wireless networks.The aim of this thesis is to analyse the different challenges that govern the design of challenged multihop wireless networks such as applications challenges in terms of quality of service (QoS), fault-tolerance, data delivery model, etc., but also networking challenges in terms of dynamic network topology, topology voids, etc. Our contributions in this thesis focus on the optimization of routing under different application requirements and network constraints. First, we propose an online multipath routing protocol for QoS-based applications using wireless multimedia sensor networks. The proposed protocol relies on the construction of multiple paths while transmitting data packets to their destination, i.e. without prior topology discovery and path establishment. This protocol achieves parallel transmissions and enhances the end-to-end transmission by maximizing path bandwidth and minimizing the delays, and thus meets the requirements of QoS-based applications. Second, we tackle the problem of routing in mobile delay-tolerant networks by studying the intermittent connectivity of nodes and deriving a contact model in order to forecast future nodes' contacts. Based upon this contact model, we propose a routing protocol that makes use of nodes' locations, nodes' trajectories, and inter-node contact prediction in order to perform forwarding decisions. The proposed routing protocol achieves low end-to-end delays while using efficiently constrained nodes' resources in terms of memory (packet queue occupancy) and processing power (forecasting algorithm). Finally, we present a topology control mechanism along a packet forwarding algorithm for event-driven applications using stationary wireless sensor networks. Topology control is achieved by using a distributed duty-cycle scheduling algorithm. Algorithm parameters can be tuned according to the desired node's awake neighbourhood size. The proposed topology control mechanism ensures trade-off between event-reporting delay and energy consumption
8

Langouët, Hoël. "Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00671987.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
9

Ngom, Diery. "Optimisation de la durée de vie dans les réseaux de capteurs sans fil sous contraintes de couvertureet de connectivité réseau." Thesis, Mulhouse, 2016. http://www.theses.fr/2016MULH9134/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis ces deux dernières décennies, une nouvelle technologie sans fil appelée Réseau de Capteur Sans Fil (RCSF) résultant d"une fusion entre les systèmes embarqués et les communications sans fil a vu le jour. Un RCSF ("WSN : Wireless Sensor Network" en Anglais) est un réseau Ad hoc composé d"un grand nombre de nœuds qui sont des micro-capteurs qui peuvent être déployés de façon aléatoire ou déterministe dans une zone d"intérêt donnée. Ces nœuds capteurs sont capables de récolter plusieurs paramètres physiques sur l"environnement qui les entoure, appelé généralement zone de captage (ou zone de surveillance). Ensuite, ils doivent si nécessaire traiter les données capturées et les transmettre à un (ou plusieurs) nœud de collecte appelé station de base, centre de traitement ("sink" en Anglais). Beaucoup de domaines d"applications tels que le contrôle et suivi environnemental, le contrôle de production dans l"industrie, la surveillance de zone, le monitoring de l"habitat, l"agriculture intelligente, etc. sont basés sur les RCSF. Toutefois, les RCSF ne sont pas parfaits. En effet, compte tenu de leur petite taille, leur faible coût et leurs déploiement dans des zones souvent hostiles ou difficiles d"accès, les nœuds capteurs présentent un certain nombre de faiblesses parmi lesquelles une durée de vie du réseau limitée, une bande passante faible, des capacités de capture et de communication réduites, etc. Afin de surmonter ces contraintes des RCSF, plusieurs problématiques de recherche sont nées ces dernières années, et les principales portent sur l"optimisation de la consommation énergétique en vue d"améliorer la durée de vie du réseau. D"autres recherches importantes menées dans le domaine de ces réseaux portent sur les stratégies de placement des nœuds, sur la couverture de zones et sur la connectivité du réseau. Cependant, la plupart des solutions proposées ces dernières années ne prennent pas en compte toutes ces problématiques dans leurs modèles de résolution ; alors que dans beaucoup d"applications des RCSF telles que la surveillance de zone critique, le monitoring de l"habitat, l"agriculture intelligente, il est nécessaire de garantir en même temps une couverture complète de la zone de surveillance, une bonne connectivité du réseau, tout en optimisant au mieux la durée de vie de celui-ci. Le but de cette thèse est donc de proposer de nouveaux mécanismes efficaces pour l"optimisation de la durée de vie dans les RCSF, tout en garantissant, à tout moment de cette durée de vie, une couverture totale de la zone de surveillance, ainsi qu"une bonne connectivité du réseau. Pour atteindre nos objectifs, nous avons étudié et fait des propositions dans deux axes qui sont le placement des nœuds et les mécanismes d"ordonnancement au niveau de la couche MAC. Pour ces derniers, nous avons mis en place un algorithme appelé DSMAC (Distributed Scheduling Medium Acces Control) qui est basé sur notre méthode de placement des nœuds. Par ailleurs, DSMAC permet de couvrir 100% de la zone de surveillance, assure une bonne connectivité du RCSF et permet également aux nœuds capteurs d"économiser jusqu"à 30% de leur énergie comparativement à d"autres protocoles MAC tels que TunableMAC
Since the past two decades, a new technology called Wireless Sensor Network (WSN) which result in a fusion of embedded systems and wireless communications has emerged. A WSN is Ad hoc network composed of many sensors nodes communicating via wireless links and which can be deployed randomly or deterministically over a given interest region. Theses sensors can also collect data from the environment, do local processing and transmit the data to a sink node or Base Station (BS) via multipath routing. Thereby, a wide range of potential applications have been envisioned using WSN such as environmental conditions monitoring, wildlife habitat monitoring, industrial diagnostic, agricultural, improve health care, etc. Nevertheless,WSN are not perfect. Indeed, given their small size, their low cost and their deployment generally in hostile or difficult access areas, sensor nodes have some weaknesses such as: a limited energy, so a network lifetime limited, limited bandwidth, limited computations and communications capabilities, etc. To overcome these limitations, several research issues from were created in recent years, and the main issues focus on the optimization of energy consumption in order to improve the network lifetime. Other important researches focus on issues of coverage areas, placement strategies of sensor nodes and network connectivity. However, most solutions proposed in recent years to resolve these issues do not take into account all these issues that we cited above in resolutions models; while in many WSN applications such as monitoring critical region, wildlife habitat monitoring, agricultural application, a full coverage of the monitoring region and network connectivity are mandatory as well an energy-awareness network lifetime. The objective of this thesis is thus to propose new scheduling mechanisms for optimizing the network lifetime in WSN, while ensuring at any time of the network lifetime a full coverage of the monitored region and network connectivity. To achieve our goals, we have study and done proposal in two axes which are placement strategy of sensor nodes and scheduling mechanism in the MAC layer. For these, we have implemented a Distributed Scheduling Medium Access Control algorithm (DSMAC) based on our placement method. Furthermore, DSMAC enables to cover 100% of the monitored region, to ensure optimal network connectivity and also allows sensors node to save up to 30% of their energy compared to other MAC protocols such as TunableMAC
10

Hernandez, Sébastien. "Evaluation et optimisation du mécanisme de Handhover dans un Réseau Local Sans Fil dédié aux applications à trafic contraint par le temps." Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/70/32/74/PDF/2006CLF21682.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour contexte des applications industrielles où des mobiles communiquent via un réseau local sans fil. Nous avons élaboré une plate-forme où des mobiles collaborent via un réseau IEEE802. 11 en mode infrastructure, les communications s'effectuent via des points d'accès (AP) auxquels les mobiles sont affiliés. Chaque AP gère une zone appelée cellule, les mobiles vont être à passer d'une cellule à une autre et s'affilier à différents AP. Ce mécanisme, appelé Handover génère un trafic de gestion, qui va perturber le trafic de collaboration des mobiles, et a un coût en temps pendant lequel le mobile va être isolé du réseau. Ces effets peuvent être désastreux dans des applications où le temps est un facteur critique. Nous proposons des solutions efficaces qui agissent sur la phase de recherche d'un nouvel AP, qui réduisent le trafic de gestion du handover et qui peuvent complétées par l'ajout d'une deuxième interface réseau sur chaque mobile

Книги з теми "Optimisation Sans Contrainte":

1

Scales, L. E. Introduction to non-linear optimization. New York: Springer-Verlag, 1985.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Scales, L. E. Introduction to non-linear optimization. London: Macmillan, 1985.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Optimisation Sans Contrainte":

1

"3. Optimisation sans contraintes." In Techniques d’optimisation Tome 1, 189–294. EDP Sciences, 2022. http://dx.doi.org/10.1051/978-2-7598-2769-5.c005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії