Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Algorithme linéaire.

Zeitschriftenartikel zum Thema „Algorithme linéaire“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-37 Zeitschriftenartikel für die Forschung zum Thema "Algorithme linéaire" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

SAIDI, IMEN, und NAHLA TOUATI. „APPRENTISSAGE DE COMMANDE POUR LE SUIVI DE TRAJECTOIRE D'UN PENDULE INVERSÉ À ROUE D'INERTIE NON LINÉAIRE“. REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 68, Nr. 4 (23.12.2023): 424–30. http://dx.doi.org/10.59277/rrst-ee.2023.4.17.

Der volle Inhalt der Quelle
Annotation:
Cet article propose le contrôle d'apprentissage itératif pour les systèmes sous-actionnés non linéaires. Pour améliorer la vitesse de convergence du contrôle d'apprentissage itératif pour de tels systèmes et réduire la fluctuation de l'erreur du système, un algorithme de contrôle d'apprentissage itératif en boucle fermée de type D à gain variable exponentiel a été choisi. L'analyse de simulation MATLAB a ensuite été réalisée sur un système sous-actionné, non linéaire et instable, à savoir le pendule inversé à roue d'inertie. Les résultats de la simulation montrent que l'algorithme est efficace. De bonnes performances de suivi ont été obtenues. Le système converge vers des cycles limites stables après quelques itérations, garantissant des erreurs fluides et une vitesse de convergence satisfaisante.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dinh Tao, Pham. „Un algorithme pour la résolution du programme linéaire général“. RAIRO - Operations Research 25, Nr. 2 (1991): 183–201. http://dx.doi.org/10.1051/ro/1991250201831.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Carbillet, Stani, Fabrice Richard, Frédéric Thiebaud und Mohammed Lamine Boubakar. „Algorithme hybride pour l'identification du comportement non linéaire d'un CMO“. Revue des composites et des matériaux avancés 15, Nr. 1 (23.04.2005): 71–87. http://dx.doi.org/10.3166/rcma.15.71-87.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Hilali, A., und A. Wazner. „Un algorithme de calcul de l'invariant de Katz d'un système différentiel linéaire“. Annales de l’institut Fourier 36, Nr. 3 (1986): 67–81. http://dx.doi.org/10.5802/aif.1060.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Monnier, Fabrice, Bruno Vallet, Nicolas Paparoditis, Jean-Pierre Papelard und Nicolas David. „Mise en cohérence de données laser mobile sur un modèle cartographique par recalage non-rigide“. Revue Française de Photogrammétrie et de Télédétection, Nr. 202 (16.04.2014): 27–41. http://dx.doi.org/10.52638/rfpt.2013.49.

Der volle Inhalt der Quelle
Annotation:
Depuis quelques années, des véhicules de cartographie mobile ont été développés pour acquérir des données géoréférencées très précises et en grande quantité au niveau du canyon urbain. L'application majeure des données collectées par ces véhicules est d'améliorer les bases de données géographiques existantes, en particulier leur précision, leur niveau de détail et la diversité des objets représentés. On peut citer entre autres applications la modélisation géométrique fine et la texturation des façades, l'extraction de "petits" objets comme les troncs d'arbres, poteaux, panneaux, mobiliers urbain, véhicules,...Cependant, les systèmes de géopositionnement de ces véhicules ne parviennent pas à fournir une localisation d'une précision suffisante pour cette tâche. En particulier, les masques GPS fréquents en milieu urbain sont paliés par les mesures de la centrale inertielle grâce à un algorithme de fusion de données pouvant entraîner une dérive. C'est pourquoi, un recalage est indispensable pour mettre en correspondance ces données mobiles très détaillées avec les bases de données géographiques moins détaillées mais mieux géopositionnées, qu'elles soient 2D ou 3D.Cet article présente une méthode générique et efficace permettant un tel recalage. Le processus est basé sur une méthode de type ICP ("Iterative Closest Point") point à plan.On suppose que l'erreur de géopositionnement, ou dérivevarie de façon non linéaire, mais lentement en fonction du temps. On modélise donc la trajectoire par une "chaîne" ayant une certaine rigidité. A chaque itération, la trajectoire est déformée afin de minimiser la distance des points laser aux primitives planes du modèle.Cette méthode permet d'approximer la dérive par une fonction linéaire par intervalle de temps.La méthode est testée sur des données réelles ( 3,6 millions de points laser acquis sur un quartier de la ville de Paris sont recalés sur un modèle 3D d'environ 71.400 triangles). Enfin, la robustesse et la précision de cet algorithme sont évaluées et discutées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Aktas, D., L. Mtimet, D. Sanak, G. Palmisano, K. Peris, V. Del Marmol und M. Suppa. „Validation d’un algorithme diagnostique du carcinome basocellulaire par tomographie par cohérence optique confocale à champ linéaire“. Annales de Dermatologie et de Vénéréologie - FMC 3, Nr. 8 (Dezember 2023): A177. http://dx.doi.org/10.1016/j.fander.2023.09.328.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Raïssi, Nadia, und Mustapha Serhani. „Algorithme de dualité pour un problème d'optimisation non convexe : application à un problème de Stokes non linéaire“. Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 333, Nr. 8 (Oktober 2001): 801–6. http://dx.doi.org/10.1016/s0764-4442(01)02130-9.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Blanpain, O., L. Petit, J. Le Gouevec und S. Merchez. „Une approche pour l'approximation du profil en long des réseaux d'assainissement à partir de données incomplètes“. Revue des sciences de l'eau 12, Nr. 4 (12.04.2005): 661–69. http://dx.doi.org/10.7202/705371ar.

Der volle Inhalt der Quelle
Annotation:
Très souvent, les services techniques ne disposent que du plan du réseau d'assainissement sans le profil en long. Or les cotes radiers sont nécessaires aux simulations hydrauliques effectuées, par exemple, lors des études diagnostic. Pour pallier ce manque, les bureaux d'étude effectuent généralement un relevé sommaire et interpolent linéairement les cotes radier manquantes. Cette interpolation linéaire peut être la source d'erreurs importantes. Nous proposons donc dans cet article une nouvelle méthode d'interpolation permettant de minimiser ces erreurs. Cette méthode utilise trois types d'informations : les données connues, les contraintes et les critères. Les données connues correspondent aux informations disponibles quant au réseau. Les contraintes sont les règles constructives auxquelles tout réseau d'assainissement doit se conformer. Les critères sont les règles d'optimisation construites à partir d'observations sur des réseaux réels. Pour résoudre ce problème d'optimisation sous contraintes, nous utilisons des algorithmes génétiques parce que ces derniers sont capables de travailler avec un grand nombre de variables, des nombres réels et des fonctions non-linéaires. Des tests ont été effectués sur les réseaux des villes d'Annequin, de Bapaume et de Lyon. Dans tous les cas (tronçons longs ou courts, pente forte ou faible), les résultats obtenus avec notre méthode sont meilleurs que ceux obtenus avec la classique interpolation linéaire. Il est même possible de déterminer la présence de contre-pente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

TOUHAMI, MOHAMED, und ABDELDJEBAR HAZZAB. „L’AMELIORATION APPORTEE PAR LE CONTROLEUR NLPI PAR RAPPORT AU VGPI“. REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 68, Nr. 2 (03.07.2023): 158–63. http://dx.doi.org/10.59277/rrst-ee.2023.68.2.7.

Der volle Inhalt der Quelle
Annotation:
Le contrôleur PI non linéaire (NLPI) est un contrôleur à utiliser pour fournir un meilleur niveau de performance par rapport à ceux des algorithmes les plus connus pour le contrôle de la vitesse et du flux. C'est le contrôleur le mieux adapté pour contrôler les paramètres de l'évolution des caractéristiques du processus. Cet article rend compte du développement d'un contrôleur NLPI utilisant l'approche de la fonction non linéaire. Fournir la théorie, l'algorithme utilisé et les aspects logiciels de la mise en œuvre du système ainsi que les résultats des tests de simulations obtenus sur un système de contrôle de processus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Andriamanampisoa, Tsiry A., Gabriely Ranaivoniarivo, Bienvenue Raheliarilalao und Edouard Andrianarison. „Caractérisation Rhéologique Empirique Et Relative - Détermination De La Loi Constitutive Des Suspensions Eau Et Déchets Papiers-Cartons“. International Journal of Progressive Sciences and Technologies 38, Nr. 2 (30.05.2023): 465. http://dx.doi.org/10.52155/ijpsat.v38.2.5362.

Der volle Inhalt der Quelle
Annotation:
Pour mettre au point un procédé de fabrication de briques autobloquantes à partir de déchets papier-carton, et d’en garantir la reproductibilité, maîtriser la qualité de la suspension eaux et déchets papier-cartons devient fondamental. En effet, cette suspension est mélangée avec du sable et du ciment pour obtenir les briques autobloquantes. Il est alors essentiel de déterminer la loi constitutive des suspensions eaux et déchets papier-carton. Une méthode de caractérisation rhéologique empirique et relative du type viscosimètre rotatif a été adoptée à partir de la conception et de réalisation d’un broyeur de déchets-papiers. Cette méthode propose d’utiliser ce broyeur comme rhéomètre de process et de définir la viscosité apparente de la suspension à partir de celle d’un fluide newtonien de référence qui nécessiterait la même puissance consommée dans des conditions opératoires et géométriques identiques. Dans le cadre de cette étude, la suspension eaux et déchets cellulosiques suit la loi d’Ostwald de Waële et l’eau est utilisée comme fluide de référence. La courbe caractéristique obtenue sur le broyeur avec l’eau sera comparée avec celles obtenues avec les différentes pâtes de papier. Les données mesurées sont les vitesses de rotation et les puissances électriques consommées pour en déduire les nombres de puissances (Np). À partir de la fonction modèle Np = k RexFry, les paramètres k, x, y seront déterminées pour ajuster les données expérimentales enregistrées. Pour constituer ces données expérimentales et modéliser les courbes caractéristiques du broyeur, l’inclinaison des pales de l’agitateur a été variée : 30° (T30), 45° (T45) et 60° (T60). Différents types de déchets cellulosiques ont également été utilisés : papiers journaux (PJ), papiers vélin (PV) et papiers cartons (PC). La vitesse de rotation du mobile passe de 1 tr/s, à 2,5 tr/s, à 4 tr/s, à 5 tr/s puis elle est augmentée par pas de 2,5 tr/s jusqu’à atteindre la vitesse maximale du moteur qui est de 25 tr/s. Les nombres de puissances obtenus des expériences ont été ajustés par la régression non-linéaire avec deux types de mises en équation sous MatLab. La première mise en équation a été faite par l’algorithme de Nelder Mead (N-M) qui, après 38 à 47 itérations et 75 à 88 évaluations des fonctions, a donné des valeurs de k, x et y. La deuxième a été faite par l’algorithme de Levenberg Marquadt (L-M) et a donné des valeurs de k, x, y après 4 à 5 itérations et 15 à 18 évaluations des fonctions. Ces deux méthodes donnent des résultats différents. Les nombres d’itérations montrent la puissance de chaque algorithme et celui de Levenberg Marquadt converge plus vite. Les valeurs du facteur de fiabilité R <5% obtenues montrent une différence négligeable des équations littérales issues des deux méthodes et valident la multiplicité des solutions. De ces courbes caractéristiques littérales obtenues par ajustement, nous procédons à une caractérisation rhéologique empirique et relative des suspensions eaux et déchets papiers-cartons en déterminant successivement par identification un Nombres de Reynolds apparente, une viscosité apparente et les lois constitutives suivant le modèle de puissance d’Ostwald Waële. Les lois constitutives obtenues sont de la forme n avec m, indice de consistance et n, indice d’écoulement. Nous avons constaté un indice de consistance entre 9.10-4 et 11.10-4 et un indice d’écoulement entre 1,03 et 1,08. La cohérence de ces valeurs a été constatée en ayant un n> 1, qui signifie un comportement rhéoépaississant. Les suspensions eaux et déchets papiers-cartons sont généralement dans les mêmes classes des solutions d’amidons agitées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Bélisle, François, Laura Torres, Pascal Volet, David K. Hale und Anjana Avr. „Evaluating the HERO Ramp-Metering Algorithm with San Diego’s Integrated Corridor Management System Model“. Transportation Research Record: Journal of the Transportation Research Board 2673, Nr. 12 (16.07.2019): 354–66. http://dx.doi.org/10.1177/0361198119858078.

Der volle Inhalt der Quelle
Annotation:
The FHWA project “Alternative Designs to Alleviate Freeway Bottlenecks at Merge/Diverge and Weaving Areas” aims at evaluating six different methods to mitigate merge impacts. In this paper, the following ramp-metering algorithms were tested: HEuristic Ramp metering coOrdination (HERO), Asservissement Linéaire d’entrée sur Autoroute (ALINEA), and San Diego Ramp Meter System (SDRMS). These were compared with a “do-nothing” base scenario. The algorithms were tested during a 5 h morning peak period simulation using the integrated corridor management system (ICMS) Aimsun network, a complete and wide-ranging network covering San Diego’s I-15 mainline corridor, on-off ramps and arterial roads. Whereas ALINEA is already included in the base distribution of Aimsun, a new implementation of HERO was programmed from algorithms found in the literature and adapted for use on such a network. Different measures of performance (MOP) were used to assess the efficiency of each algorithm and HERO was found to outperform all the other algorithms: gains of 1.5% over ALINEA and 4% over do-nothing on the mainline average travel time, and gains of 0.5% over ALINEA and 1.5% over do-nothing for the average weighted harmonic speed on all mainline and ramp sections. However, although tests showed that better results can be obtained on the mainline, careful calibration was needed to attain overall positive MOP and not penalize vehicles entering on ramps. The paper concludes with proposed improvements to the original algorithm.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Adamu, J., A. Y. Shuaibu und A. O. Raji. „Growth characteristics of noiler chickens as determined by nonlinear algorithms“. Nigerian Journal of Animal Production 48, Nr. 5 (10.11.2021): 12–19. http://dx.doi.org/10.51791/njap.v48i5.3183.

Der volle Inhalt der Quelle
Annotation:
The assessment of growth characteristics of noilers chickens as determined by non- linear algorithms will provide the best mathematical function in the growth of male and female noilers chickens This study sought to determine the adequacy of two mathematical functions for modeling growth characteristics of male and female Noiler® chickens. Body weights and morphometric traits of 200 Noiler chickens were measured bimonthly for 20 weeks and the data obtained fitted to the Gompertz and Logistic growth models using the nonlinear regression. The results showed significant (P<0.05) difference between males and females only at 16, 18 and 20 weeks of age, with values of 2316.2 vs 2121.9 g, 2624.3 vs 2378.1 g, and 3002.7 vs 2718.7g, respectively. There were no discernable differences between males and females for most body measurements except body length which was longer in the latter than former from 14 weeks of age. The asymptomatic weight (A) of the models revealed that Gompertz model had higher values for both male and female Noilers than the Logistic for body weight and all morphometric traits. The reverse was observed with the scale parameter 2 (B) and relative growth rate (C) for all traits. The coefficient of determination (R ) values for both models (male and female) were generally high (>80%) indicating a good fit for the data. The other goodness of fit criteria; Akaike Information Criterion (AIC) and standard deviation (SD) were lower for the Gompertz compared to Logistic for both male and female. Thus, the study revealed that the Gompertz was the better model for explaining the growth patterns of both male and female Noiler chickens. L'évaluation des caractéristiques de croissance des poulets de Noilers tels que déterminées par des algorithmes non linéaires fournira la meilleure fonction mathématique de la croissance des poulets de Noilers masculins et féminins. Cette étude a cherché à déterminer l'adéquation de deux fonctions mathématiques pour la modélisation des caractéristiques de croissance des poulets mâles et femelles Noiler. Les poids corporels et les traits morphométriques de 200 poulets nilaques ont été mesurés bimenshly pendant 20 semaines et les données obtenues dans les modèles de Gompertz et croissance logistiques utilisant la régression non linéaire. Les résultats ont montré une différence significative (p <0,05) entre les mâles et les femmes seulement à 16, 18 et 20 semaines, avec des valeurs de 2316,2 vs 2121,9 g, 2624.3 contre 2378,1 g et 3002,7 vs 2718.7g, respectivement. Il n'y avait pas de différences discernables entre les hommes et les femmes pour la plupart des mesures du corps, à l'exception de la longueur du corps, ce qui était plus long que l'ancien de 14 semaines. Le poids asymptomatique (A) des modèles a révélé que le modèle de Gompertz avait des valeurs plus élevées pour les noilers mâles et femelles que la logistique pour le poids corporel et tous les traits morphométriques. L'inverse a été observé avec le paramètre d'échelle (B) et le taux de croissance relative (C) pour tous les traits. Le coefficient de valeurs de détermination (R ) pour les deux modèles (hommes et femmes) était généralement élevé (> 80%) indiquant un bon ajustement pour les données. L'autre bonté des critères d'ajustement; Le critère d'information Akaike (CIA) et l'écart type (ET) étaient plus bas pour le Gompertz par rapport à la logistique pour les hommes et les femmes. Ainsi, l'étude a révélé que le Gompertz était le meilleur modèle d'explication des schémas de croissance des poulets mâles et femelles Noilers.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

dupas, Rémy, und Gilles goncalves. „Job shop cyclique à contraintes linéaires : modélisation et résolution par un algorithme génétique“. Journal Européen des Systèmes Automatisés 37, Nr. 7-8 (30.10.2003): 929–54. http://dx.doi.org/10.3166/jesa.37.929-954.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Quilliot, A., und S. Godano. „Algorithmes de poursuite pour la résolution de programmes (linéaires) en nombres entiers“. RAIRO - Operations Research 27, Nr. 3 (1993): 307–18. http://dx.doi.org/10.1051/ro/1993270303071.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Guo, Ying Qiao, und Hossein Shakourzadeh. „Comparaison de différents algorithmes de plasticité dans l'analyse non linéaire des structures de poutres 3D“. Revue Européenne des Éléments Finis 6, Nr. 2 (Januar 1997): 135–64. http://dx.doi.org/10.1080/12506559.1997.10511264.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Loidreau, Pierre. „Sur la reconstruction des polynômes linéaires : un nouvel algorithme de décodage des codes de Gabidulin“. Comptes Rendus Mathematique 339, Nr. 10 (November 2004): 745–50. http://dx.doi.org/10.1016/j.crma.2004.10.004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Perron, Pierre. „L’estimation de modèles avec changements structurels multiples“. Contributions économétriques 73, Nr. 1-2-3 (09.02.2009): 457–505. http://dx.doi.org/10.7202/602236ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Cette étude considère le problème de l’estimation de modèles de régressions linéaires avec changements structurels multiples. Nous passons en revue la classe de modèles analysée par Bai et Perron (1996) et certains de leurs résultats asymptotiques. Nous discutons plus en détail un algorithme de calcul, basé sur les principes de la programmation dynamique, qui permet d’obtenir des estimations de façon très efficace même si le nombre de points de rupture est élevé. Ensuite, nous discutons du problème d’estimation de ce nombre de changements via certains critères d’information. Des résultats de simulations sont présentés pour illustrer les mérites et les défauts de ces procédures. Finalement, certains résultats empiriques mettent en évidence l’importance pratique de nos résultats.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

GUERFI, Mokhtar, und Atef Alaadine Amriche. „L'approche détection des changements pour estimer l'humidité du sol en milieu semi-aride à partir des images ASAR. Cas des hautes plaines de l'Est de l'Algérie“. Revue Française de Photogrammétrie et de Télédétection, Nr. 210 (07.04.2015): 51–62. http://dx.doi.org/10.52638/rfpt.2015.271.

Der volle Inhalt der Quelle
Annotation:
C'est avec la télédétection radar que les résultats les plus prometteurs pour estimer et cartographier l'humidité du sol ont été obtenus. Les travaux de ces dernières années ont donné lieu à de nombreuses approches et algorithmes. Dans ce papier, nous évaluons l'approche détection des changements, qui offre le potentiel d'une utilisation opérationnelle, qui est moins complexe, minimise le rôle de la rugosité de surface et de la végétation. Quatre images du capteur ASAR/ENVISAT avec la même configuration ont été acquises, sur un secteur des hautes plaines semi-arides de l'Est de l'Algérie ; 67 échantillons sont prélevés à chaque passage du satellite sur cinq parcelles test et l'humidité mesurée. L'étude des régressions linéaires associée à l'approche détection du changement a permis l'expression du coefficient de rétrodiffusion comme fonction de l'humidité volumique du sol (σ0 = a*θ + b). Les coefficients “a” et “b” de l'équation diffèrent d'un site à l'autre et d'une saison à l'autre. Cette différence est due aux variations saisonnières de la rugosité et du couvert végétal. La comparaison entre l'humidité de surface mesurée et celle estimée montre la pertinence des modèles d'inversion utilisés, avec une erreur moyenne de plus ou moins 4%. Finalement, une carte de la distribution de l'humidité de surface de la région a été obtenue à partir des images acquises.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Laïdi, Maamar, und Salah Hanini. „Approche neuronale pour l’estimation des transferts thermiques dans un fluide frigoporteur diphasique“. Journal of Renewable Energies 15, Nr. 3 (23.10.2023): 513–20. http://dx.doi.org/10.54966/jreen.v15i3.340.

Der volle Inhalt der Quelle
Annotation:
La propriété associative des réseaux neurologiques artificiels et de leur capacité inhérente d’apprendre et identifier des rapports fortement non linéaires et complexes, les trouve idéalement convenus à une étendue des applications large dans le domaine du froid direct et indirect. Cet article traite les applications potentielles des réseaux neurones artificiels dans la particularité des problèmes thermiques soulevés par l’utilisation des fluides frigoporteurs diphasiques, tels que les coulis de glace (mélange de solutions binaires aqueuses et de cristaux de glace) dans les installations de distribution du froid. L’utilisation de ce type d’installation permet de diminuer, les quantités des fluides frigorigènes traditionnels, ainsi que les problèmes qu’ils engendrent, de réduire les volumes de stockage et les consommations d’électricité. La stratégie d’obtention du RN s'articule sur l'élaboration d'un programme sur MATLAB, comportant plusieurs boucles où on fait varier les algorithmes d’apprentissages, les fonctions d’activations, le nombre de couches cachées et le nombre de neurones dans chaque couche, afin de minimiser la fonction du coût sous contrainte d’une erreur relative fixée. Le modèle neuronal conçu a permis d’une part de reproduire avec une très bonne précision les données expérimentales tirées directement de littérature et d’autre part une estimation meilleure et plus précise des valeurs calculées par rapport aux modèles classiques (basé sur la formulation générale de la méthode enthalpique) des transferts thermiques dans le cas des solutions binaires dispersées sous forme d’émulsions ou de mini-émulsions subissant un changement de phase tirées directement de littérature.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Poreba, Martyna, und François Goulette. „Recalage rigide de relevé laser par mise en correspondance robuste basée sur des segments“. Revue Française de Photogrammétrie et de Télédétection, Nr. 207 (24.09.2014): 3–17. http://dx.doi.org/10.52638/rfpt.2014.208.

Der volle Inhalt der Quelle
Annotation:
Le recalage se révèle indispensable pour assembler des relevés laser devant servir à l'analyse, à la documentation et à la reconstruction tridimensionnelle d'environnements. Ce problème apparaît lorsqu'une zone d'intérêt est numérisée, au fil du temps, deux ou plusieurs fois, ou quand sa complexité nécessite un accroissement du nombre de stations de scanner laser fixes. Aussi, en raison de la variété des techniques disponibles d'acquisition, l'intégration multi-données devient une question importante puisqu'elle permet de mettre en cohérence des données contenant souvent une information complémentaire. La vaste majorité des algorithmes existants s'appuient sur les éléments ponctuels. C'est pourquoi les méthodes ICP basées-point demeurent actuellement les plus répandues. Cet article propose l'utilisation des segments sous forme d'intersections entre les plans principaux, pour un recalage rigide des nuages de points mobiles avec d'autres données, qu'elles soient 2D ou 3D. Ces primitives peuvent être aisément extraites, même dans les données laser hétérogènes de faible densité. Quelques méthodes de recalage basées-lignes ont été examinées afin de vérifier leur précision et robustesse au bruit. Les erreurs des paramètres estimés ainsi qu'un nouveau critère — distance modifiée de Hausdorff ont été employés pour les besoins d'une analyse quantitative. Au vu de ces éléments, une chaîne complète nommée RLMR-FMII 2 comprenant un recalage grossier suivi par un recalage fin est proposée pour calculer les paramètres de pose à partir de segments appariés.Étant donné que la mise en correspondance automatique d'entités linéaires est ardue et influence l'estimation des paramètres optimaux de transformation, une méthode d'appariement étudiant la similitude relative est avancée. Enfin, l'efficacité de cette méthode de recalage par mise en correspondance préalable des segments est évaluée et discutée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Umutoni, C., und I. Ngaruye. „Prediction of Tea Production in Rwanda Using Data Mining Techniques“. Agricultural and Food Science Journal of Ghana 15, Nr. 1 (22.03.2023): 1631–40. http://dx.doi.org/10.4314/afsjg.v15i1.10.

Der volle Inhalt der Quelle
Annotation:
Rwanda's main economic activity is agriculture, and tea is the country's most important cash crop. There has been extensive research on prediction of tea production in Rwanda but most of the methods applied were the traditional statistical analyzes with limited prediction capability. Data mining algorithm models, linear regression, K-Nearest Neighbor (KNN), Random Forest Regression, and Extremely Randomized Trees are discussed in this study to identify critical features in different domains to facilitate accurate prediction of tea production in Rwanda. In this study also, an identification of different factors which are strongly associated with tea production and developed data mining models for predicting tea production using training and test data from National Agricultural Export Development Board (NAEB) 2010-2019 is performed and PYTHON, R, and SPSS Version 25 softwares used in this study. The findings reveal that extra tree and random forest are the best model among the others to predict tea production in Rwanda. French title: Prévision de la production de thé au Rwanda à l'aide de techniques d'exploration de données La principale activité économique du Rwanda est l'agriculture, et le thé est la culture de rente la plus importante du pays. De nombreuses recherches ont été menées sur la prédiction de la production de thé au Rwanda, mais la plupart des méthodes appliquées étaient des analyses statistiques traditionnelles avec une capacité de prédiction limitée. Les modèles d'algorithmes d'exploration de données, la régression linéaire, le K-Nearest Neighbor (KNN), la régression Random Forest et les arbres extrêmement randomisés sont discutés dans cette étude pour identifier les caractéristiques critiques dans différents domaines afin de faciliter la prédiction précise de la production de thé au Rwanda. Dans cette étude également, une identification des différents facteurs qui sont fortement associés à la production de thé et des modèles d'exploration de données développés pour prédire la production de thé en utilisant des données d'entraînement et de test du National Agricultural Export Development Board (NAEB) 2010-2019 est effectuée et les logiciels PYTHON, R, et SPSS Version 25 sont utilisés dans cette étude. Les résultats révèlent que l'arbre supplémentaire et la forêt aléatoire sont les meilleurs modèles parmi les autres pour prédire la production de thé au Rwanda.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Bürgisser, Peter, und Christian Ikenmeyer. „A max-flow algorithm for positivity of Littlewood-Richardson coefficients“. Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AK,..., Proceedings (01.01.2009). http://dx.doi.org/10.46298/dmtcs.2749.

Der volle Inhalt der Quelle
Annotation:
International audience Littlewood-Richardson coefficients are the multiplicities in the tensor product decomposition of two irreducible representations of the general linear group $\mathrm{GL}(n,\mathbb{C})$. They have a wide variety of interpretations in combinatorics, representation theory and geometry. Mulmuley and Sohoni pointed out that it is possible to decide the positivity of Littlewood-Richardson coefficients in polynomial time. This follows by combining the saturation property of Littlewood-Richardson coefficients (shown by Knutson and Tao 1999) with the well-known fact that linear optimization is solvable in polynomial time. We design an explicit $\textit{combinatorial}$ polynomial time algorithm for deciding the positivity of Littlewood-Richardson coefficients. This algorithm is highly adapted to the problem and it is based on ideas from the theory of optimizing flows in networks. Les coefficients de Littlewood-Richardson sont les multiplicités dans la décomposition du produit tensoriel de deux représentations irréductibles du groupe général linéaire $\mathrm{GL}(n,\mathbb{C})$. Ces coefficients ont plusieurs interprétations en combinatoire, en théorie des représentations et en géométrie. Mulmuley et Sohoni ont observé qu'on peut décider si un coefficient de Littlewood-Richardson est positif en temps polynomial. C'est une conséquence de la propriété de saturation des coefficients de Littlewood-Richardson (démontrée par Knutson et Tao en 1999) et le fait bien connu que la programmation linéaire est possible en temps polynomial. Nous décrivons un algorithme $\textit{combinatoire}$ pour décider si un coefficient de Littlewood-Richardson est positif. Cet algorithme est bien adapté au problème et il utilise des idées de la théorie des flots maximaux sur des réseaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Guiro, Aboudramane, Abderrahman Iggidr und Diène Ngom. „Interval numerical observer: Application to a discrete time nonlinear fish model“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 11, 2009 - Special... (11.08.2008). http://dx.doi.org/10.46298/arima.1923.

Der volle Inhalt der Quelle
Annotation:
International audience The aim of this work is to reconstitute the state of a discrete-time nonlinear system representing a dynamical model of a harvested fish population. For this end, we are going to use a numerical method of building an interval observer for the consider discrete-time model fish population. We adapt to this model an algorithm called "Interval Moving Horizon State Estimation" (IMHSE) which gives an estimated interval of the system states. This algorithm is carried out in [8] and work well for a general class of discrete-time systems. Le but de ce travail est de reconstruire les états d’un système discret non linéaire représentant la dynamique d’une population de poissons soumise à l’action de la pêche. Pour cela nous allons utiliser une méthode numérique de synthèse d’un observateur intervalle du modèle discret de la population de poissons considéré. Nous adaptons à ce modèle un algorithme appelé "Interval Moving Horizon State Estimation" (IMHSE) qui permet d’estimer les états du système par des intervalles. Cet algorithme est développé dans [8] et marche bien pour une classe générale de systèmes discrets.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Nouri, F. Z., und K. Amoura. „An Algorithm for the Navier-Stokes Problem“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 5, Special Issue TAM... (06.10.2006). http://dx.doi.org/10.46298/arima.1869.

Der volle Inhalt der Quelle
Annotation:
International audience This study is a continuation of the one done in [7],[8] and [9] which are based on the work, first derived by Glowinski et al. in [3] and [4] and also Bernardi et al. [1] and [2]. Here, we propose an Algorithm to solve a nonlinear problem rising from fluid mechanics. In [7], we have studied Stokes problem by adapting Glowinski technique. This technique is userful as it decouples the pressure from the velocity during the resolution of the Stokes problem. In this paper, we extend our study to show that this technique can be used in solving a nonlinear problem such as the Navier Stokes equations. Numerical experiments confirm the interest of this discretisation. Cette étude est la continuation des travaux [7],[8] et [9] qui sont basés sur l'étude faite par Glowinski et al. [3] et [4] ainsi que Bernardi et al. (voir [1] et [2]). Ici nous proposons un Algorithme pour résoudre un problème non-linéaire issu de la mécanique des fluides. Dans [7] nous avons étudié le problème de Stokes en adaptant la technique de Glowinski, grace à aquelle, on peut découpler la pression de la vitesse lors de la résolution du problème de Stokes. Dans ce travail, nous étendons notre étude et montrons que cette technique peut être utilisée dans la résolution d'un probème non-linéaire comme les quations de Navier Stokes. Des tests numériques confirment l'intérêt de la discrétisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Chan, Yao-Ban. „Upper bounds on the growth rates of hard squares and related models via corner transfer matrices“. Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings, 27th..., Proceedings (01.01.2015). http://dx.doi.org/10.46298/dmtcs.2486.

Der volle Inhalt der Quelle
Annotation:
International audience We study the growth rate of the hard squares lattice gas, equivalent to the number of independent sets on the square lattice, and two related models — non-attacking kings and read-write isolated memory. We use an assortment of techniques from combinatorics, statistical mechanics and linear algebra to prove upper bounds on these growth rates. We start from Calkin and Wilf’s transfer matrix eigenvalue bound, then bound that with the Collatz-Wielandt formula from linear algebra. To obtain an approximate eigenvector, we use an ansatz from Baxter’s corner transfer matrix formalism, optimised with Nishino and Okunishi’s corner transfer matrix renormalisation group method. This results in an upper bound algorithm which no longer requires exponential memory and so is much faster to calculate than a direct evaluation of the Calkin-Wilf bound. Furthermore, it is extremely parallelisable and so allows us to make dramatic improvements to the previous best known upper bounds. In all cases we reduce the gap between upper and lower bounds by 4-6 orders of magnitude. Nous étudions le taux de croissance du système de particules dur sur un réseau carré. Ce taux est équivalent au nombre d’ensembles indépendants sur le réseau carré. Nous étudions également deux modèles qui lui sont reliés : les rois non-attaquants et la mémoire isolée d’écriture-réécriture. Nous utilisons techniques diverses issues de la combinatoire, de la mécanique statistique et de l’algèbre linéaire pour prouver des bornes supérieures sur ces taux de croissances. Nous partons de la borne de Calkin et Wilf sur les valeurs propres des matrices de transfert, que nous bornons à l’aide de la formule de Collatz-Wielandt issue de l’algèbre linéaire. Pour obtenir une valeur approchée d’un vecteur propre, nous utilisons un ansatz du formalisme de Baxter sur les matrices de transfert de coin, que nous optimisons avec la méthode de Nishino et Okunishi qui exploite ces matrices. Il en résulte un algorithme pour calculer la borne supérieure qui n’est plus exponentiel en mémoire et est ainsi beaucoup plus rapide qu’une évaluation directe de la borne de Calkin-Wilf. De plus, cet algorithme est extrêmement parallélisable et permet ainsi une nette amélioration des meilleurs bornes supérieures existantes. Dans tous les cas l’écart entre les bornes supérieures et inférieures s’en trouve réduit de 4 à 6 ordres de grandeur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Leurent, Fabien. „An algorithm to solve several traffic assignment models: the procedure of equalization by transfer“. Les Cahiers Scientifiques du Transport - Scientific Papers in Transportation 32 | 1997 (30.06.1995). http://dx.doi.org/10.46298/cst.11945.

Der volle Inhalt der Quelle
Annotation:
The paper develops an equilibration algorithm that can be applied to several traffic assignment models. The algorithm aims to equalize the journey times of the used paths and to minimize them, by transferring flow from the loaded path with the longest travel time to the shortest path. Then it is necessary to store the paths.The procedure of equalization by transfer (PET) was introduced by Gibert to solve the Wardrop-Beckmann model; we extend it to address elastic demand, or the linear logit model, or a dual criteria model with continuously distributed values-of-times. The extension principle lies on linking to each path a generalized journey impedance which stands as a counterpart of the journey time considered in the Wardrop-Beckmann model.A PC-based computational experiment is carried out to demonstrate the applicability of the PET for medium-sized networks (eg. a 140 zone, 2,000 link network); a comparison with the traditional Frank-Wolfe procedure is included, showing that a dual criteria model may be solved at a cost comparable to that of the Wardrop-Beckmann model. Cet article développe et applique un algorithme d'équilibrage pour certains modèles d'affectation. L'algorithme vise à égaliser les temps de parcours des chemins chargés et à les minimiser, par rapport aux chemins possibles, en transvasant du flux depuis le chemin chargé le plus long vers le chemin le plus court. Cela nécessite d'expliciter les chemins.Après un rappel du principe d'égalisation (dû à Gibert pour le modèle déterministe homogène), nous l'étendons afin de considérer la demande élastique, le logit linéaire et le modèle prix-temps à demande élastique agrégée. L'extension a pour principe d'attacher à chaque chemin une impédance généralisée, homologue du temps de parcours employé dans le modèle déterministe homogène.Une application numérique démontre, pour un réseau de taille moyenne, l'efficacité du procédé d'égalisation par rapport aux algorithmes d'emploi courant. Elle montre aussi qu'un modèle d'affectation avec des valeurs du temps continûment distribuées est traitable à un coût comparable à celui nécessaire pour un modèle avec une seule valeur du temps.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Sardet, Alix, Nicolas Estre, Daniel Eck, Frédéric Moutet und Emmanuel Payan. „Extension algorithmique du champ de vue tomographique à des objets de toutes dimensions“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28512.

Der volle Inhalt der Quelle
Annotation:
Le Laboratoire de Mesures Nucléaires de l’institut IRESNE du CEA (centre de Cadarache) réalise dans la cellule d’irradiation CINPHONIE (INB CHICADE) des expertises radiographiques et tomographiques sur des objets denses et/ou de grandes dimensions. Pour ce faire, la cellule est équipée d’un accélérateur linéaire de type SATURNE permettant la production de photons ayant une énergie allant de 9 à 21 MeV (débit de dose maximal à 1 m d’environ 62 Gy/mn). Un banc mécanique de haute précision et d’une capacité de 5 tonnes permet les mouvements en translation (horizontale et verticale) et en rotation d’objets ayant un diamètre maximal de 1,50 m. La détection est assurée au moyen d’un détecteur dit « Grand Champ », composé d’un écran scintillateur de Gadox monté sur un renforçateur en tantale (80 x 60 cm²) et filmé, via un renvoi d’angle, par une caméra sCMOS bas bruit. Compte-tenu des contraintes géométriques de la cellule, le champ de vue du tomographe permettait de mesurer au maximum des objets de diamètre 102 cm en demi-champ. En 2018, une nouvelle méthode de traitement des projections a permis d’étendre le champ de vue à des objets de toute taille. Cette extension du champ de vue est effectuée en enregistrant, pour une coupe tomographique donnée, plusieurs séries de rotation sur 2π obtenues en décalant le centre de rotation de l’objet. Les projections résultantes sont ensuite fusionnées puis utilisées comme données d’entrée des algorithmes de reconstruction. Celle-ci est effectuée au moyen du logiciel RTK (algorithme FDK). Après une phase de validation par simulation au moyen du logiciel MODHERATO, développé au sein du laboratoire, la méthode a été appliquée à divers objets de gros volumes et de densité variées tels que des coques de déchets nucléaires bétonnés (Ø110 cm × 130 cm, d = 2,5) ou encore le crâne du Mammouth de Durfort (110 cm × 110 cm, d = 1,5) appartenant au Museum National d’Histoire Naturelle. Les dimensions maximales des objets sont ainsi définies par les capacités physiques (et non algorithmiques) du système tomographique à disposer d’un rapport signal sur bruit suffisant. Ce rapport dépend uniquement des caractéristiques du faisceau ainsi que du diamètre et de la densité des objets tomographiés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Nakada, Kento, und Shuji Okamura. „An algorithm which generates linear extensions for a generalized Young diagram with uniform probability“. Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AN,..., Proceedings (01.01.2010). http://dx.doi.org/10.46298/dmtcs.2843.

Der volle Inhalt der Quelle
Annotation:
International audience The purpose of this paper is to present an algorithm which generates linear extensions for a generalized Young diagram, in the sense of D. Peterson and R. A. Proctor, with uniform probability. This gives a proof of a D. Peterson's hook formula for the number of reduced decompositions of a given minuscule elements. \par Le but de ce papier est présenter un algorithme qui produit des extensions linéaires pour un Young diagramme généralisé dans le sens de D. Peterson et R. A. Proctor, avec probabilité constante. Cela donne une preuve de la hook formule d'un D. Peterson pour le nombre de décompositions réduites d'un éléments minuscules donné.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Neveu, Emilie, Laurent Debreu und François-Xavier Le Dimet. „Multigrid methods and data assimilation ― Convergence study and first experiments on non-linear equations“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (21.08.2011). http://dx.doi.org/10.46298/arima.1944.

Der volle Inhalt der Quelle
Annotation:
International audience In order to limit the computational cost of the variational data assimilation process, we investigate the use of multigrid methods to solve the associated optimal control system. On a linear advection equation, we study the impact of the regularization term and the discretization errors on the efficiency of the coarse grid correction step introduced by the multigrid method. We show that even if for a perfect numerical model the optimal control problem leads to the solution of an elliptic system, discretization errors introduce implicit diffusion that can alter the success of the multigrid methods. Then we test the multigrids configuration and the influence of the algorithmic parameters on a non-linear Burgers equation to show that the algorithm is robust and converges much faster than the monogrid one. Afin de limiter le coût de calcul lié aux méthodes variationnelles d’assimilation de données, nous nous intéressons ici à l’utilisation de méthodes multigrilles pour la résolution de systèmes de contrôle optimal. Sur un modèle simple d’advection linéaire, nous étudions l’impact du terme de régularisation du contrôle optimal ainsi que l’impact des erreurs de discrétisation sur l’efficacité de la correction grille grossière introduite par cette méthode. En particulier, nous montrons que pour un modèle numérique parfait, le problème de contrôle optimal est elliptique mais que les erreurs de discrétisation introduisant une diffusion implicite peuvent altérer les performances de la méthode multigrille. Enfin, sur une équation de Burgers, non linéaire, nous étudions l’influence des différents paramètres inhérents aux méthodes multigrilles et montrons que ces méthodes sont robustes et convergent beaucoup plus rapidement que les méthodes monogrilles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Lantz, Göran, Laurent Spinelli, Rolando Grave de Peralta Menendez, Margitta Seeck und Christoph M. Michel. „Localisation de sources distribuées et comparaison avec PIRM fonctionnelle“. Epileptic Disorders 3, SP1 (Dezember 2001). http://dx.doi.org/10.1684/j.1950-6945.2001.tb00411.x.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Cet article détaille l'utilisation des algorithmes de localisation des sources électriques distribuées dans le cadre d'un bilan pré‐chirurgical pour des patients épileptiques pharmaco‐résistants. Contrairement au modèle de type dipôle équivalent, les méthodes de localisation de sources distribuées permettent de déterminer une zone d'activation comme on en trouve souvent en épilepsie. Les techniques utilisées ici reposent sur des algorithmes linéaires de résolution du problème inverse. De ce fait elles sont moins enclines à produire des erreurs de localisation lorsque l'espace de solution est contraint sur la matière grise de chacun des patients. Nous proposons trois solutions pour augmenter la résolution spatiale de ces reconstructions de sources à fin de pouvoir distinguer plusieurs sources distinctes au sein d'un même lobe. La première est l'augmentation du nombre d'électrodes au‐delà de 100, la seconde est l'utilisation des méthodes linéaires de haute exactitude pour détecter des sources focales (EPIFOCUS) et la troisième est la combinaison des reconstructions de sources électriques avec les activations relevées par l'IRMf déclenchée par l'EEG. Cette dernière approche est très importante car elle permet d'ajouter aux activations hémodynamiques relevées par l'IRMf une information temporelle et donc de différencier le foyer primaire des sites de propagation. Les techniques de localisations de sources peuvent s'appliquer aux données ictales et inter‐ictales. Dans le cas de l'EEG ictal, nous recherchons, dans un premier temps, à déterminer la ou les fréquences qui apparaissent au début des crises puis nous reconstruisons les générateurs responsables de ces fréquences caractéristiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Nahayo, F., S. Khardi, J. Ndimubandi, M. Haddou und M. Hamadiche. „Two-Aircraft Acoustic Optimal Control Problem: SQP algorithms“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (30.11.2011). http://dx.doi.org/10.46298/arima.1946.

Der volle Inhalt der Quelle
Annotation:
International audience This contribution aims to develop an acoustic optimization model of flight paths minimizing two-aircraft perceived noise on the ground. It is about minimizing the noise taking into account all the constraints of flight without conflict. The flight dynamics associated with a cost function generate a non-linear optimal control problem governed by ordinary non-linear differential equations. To solve this problem, the theory of necessary conditions for optimal control problems with instantaneous constraints is well used. This characterizes the optimal solution as a local one when the newtonian approach has been used alongside the optimality conditions of Karush-Kuhn-Tucker and the trust region sequential quadratic programming. The SQP methods are suggested as an option by commercial KNITRO solver under AMPL programming language. Among several possible solution, it was shown that there is an optimal trajectory (for each aircraft) leading to a reduction of noise levels on the ground. Cette contribution vise à développer un modèle mathématique d’optimisation acoustique des trajectoires de vol de deux avions en approche et sans conflit, en minimisant le bruit perçu au sol. Toutes les contraintes de vol des deux avions sont considérées. La dynamique de vol associée au coût génère un problème de contrôle optimal régis par des équations différentielles ordinaires non-linéaires. Pour résoudre ce problème, la théorie des conditions nécessaires d’optimalité pour des problèmes de commande optimale avec contraintes instanées est bien développée. Ceci se caractérise par une solution optimale locale lorsque l’approche newtonienne est utilisée en tenant compte des conditions d’optimalité de Karush-Kuhn-Tucker et la programmation quadratique séquentielle globalisée par région de confiance. Les méthodes SQP sont proposées comme option par KNITRO sous le langage de programmation AMPL. Parmi plusieurs solutions admissibles, il est retenu une trajectoire optimale menant à une réduction du niveau de bruit au sol.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Philippe, Jean-Robert. „L’IA, un outil de diagnostic pour le contrôle en ligne par radiographie industrielle“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28480.

Der volle Inhalt der Quelle
Annotation:
L'intelligence artificielle (IA) est de plus en plus utilisée pour le diagnostic en ligne dans le domaine de la radiographie industrielle. Les avancées dans les algorithmes de classification et de segmentation sémantique ces dernières années constituent des outils qui permettent une détection plus précise des détails dans les images radiographiques, ce qui constitue une avancée majeure par rapports aux algorithmes traditionnels à base de traitements d’images « classiques » ou méthodes statistiques. Nous présentons ici 3 approches IA en radiographie industrielle, développées à des fins de diagnostic pour du contrôle sur ligne de production. ▪ La première approche, basée sur la classification, consiste à élaborer et entrainer un réseau de neurones de type CNN pour un établir un diagnostic qualité sur ligne de production sur image radiographique. Les images d’acquisition radiographique dont il est question ici sont des images acquises au moyen d’un capteur matriciel (projection conique). ▪ Les deux autres approches traitent du contrôle radiographique industriel sur ligne de production acquises au moyen d’un capteur linéaire (donc géométrie de projection semi-conique). ▪ La première de ces deux approches consiste à apprendre à un modèle de type Variational Autoencoder un pattern de « normalité », de la structure du matériau analysé, permettant ainsi de s’affranchir de l’apprentissage des défauts. ▪ La deuxième de ces deux approches consiste par des moyens de segmentation sémantique à détecter des défauts sur un produit à sur l’image. Le modèle ainsi conçu et entrainé, consiste en une segmentation sémantique à 5 sorties (4 classes de défauts et le background).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Qazi, Imtnan-Ul-Haque, O. Alata, J. C. Burie, A. Moussa und Christine Fernandez-Maloigne. „Segmentation d’Images Texturées Couleur à l’aide de modèles paramétriques pour approche la distribution des erreurs de prédiction linéaires“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (08.10.2011). http://dx.doi.org/10.46298/arima.1942.

Der volle Inhalt der Quelle
Annotation:
International audience We propose novel a priori parametric models to approximate the distribution of the two dimensional multichannel linear prediction error in order to improve the performance of color texture segmentation algorithms. Two dimensional linear prediction models are used to characterize the spatial structures in color images. The multivariate linear prediction error of these texture models is approximated with Wishart distribution and multivariate Gaussian mixture models. A novel color texture segmentation framework based on these models and a spatial regularization model of initial class label fields is presented. For the proposed method and with different color spaces, experimental results show better performances in terms of percentage segmentation error, in comparison with the use of a multivariate Gaussian law.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Maulin, Maëva, Nicolas Estre, David Tisseur, Grégoire Kessedjian, Alix Sardet, Emmanuel Payan und Daniel Eck. „Défloutage de projections tomographiques industrielles hautes énergies à l’aide d’un réseau de neurones convolutifs“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28481.

Der volle Inhalt der Quelle
Annotation:
La fabrication additive, métallique en particulier, est en plein essor, mais les pièces ainsi produites peuvent présenter des défauts tels que des anomalies d'impression, de la rétention de poudre ou des fissures. Pour contrôler l'intégrité de ces pièces, la tomographie par transmission haute résolution reste la méthode de référence. Cependant, pour inspecter des pièces massives et fortement absorbantes, la tomographie haute énergie avec un accélérateur linéaire d'électrons est nécessaire. Le Laboratoire de Mesures Nucléaires du CEA IRESNE dispose d'un tomographe haute énergie et a souhaité améliorer la qualité des projections acquises en mettant en place des post-traitements numériques. Afin d’essayer de dépasser les performances des méthodes de restauration classiques, basées sur des algorithmes de déconvolution, une approche de post-traitement novatrice a été étudiée : la déconvolution de flou par réseaux de neurones convolutifs. Pour ce faire, un jeu de données d’images a tout d’abord été généré par simulation. Un réseau de neurones convolutifs, basé sur la structure du réseau SRCNN (Super-Resolution Convolutional Neural Network), a ensuite été adapté, entraîné et évalué. Chaque hyperparamètre du réseau a alors été spécialement optimisé. Enfin, ce réseau a été validé sur des tomographies à 9 MeV d’objets réels afin d’évaluer les performances finales obtenues, mais aussi comprendre les limitations de ce type d’approche. Le réseau de neurones convolutifs ainsi optimisé démontre de bonnes performances de défloutage tout en limitant l’amplification du bruit.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Dalémat, Marie, Michel Coret, Adrien Leygue und Erwan Verron. „Robustness of the Data-Driven Identification algorithm with incomplete input data“. Journal of Theoretical, Computational and Applied Mechanics, 21.02.2024. http://dx.doi.org/10.46298/jtcam.12590.

Der volle Inhalt der Quelle
Annotation:
Identifying the mechanical response of a material without presupposing any constitutive equation is possible thanks to the Data-Driven Identification algorithm developed by the authors. It allows to measure stresses from displacement fields and forces applied to a given structure; the peculiarity of the technique is the absence of underlying constitutive equation. In the case of real experiments, the algorithm has been successfully applied on a perforated elastomer sheet deformed under large strain. Displacements are gathered with Digital Image Correlation and net forces with a load cell. However, those real data are incomplete for two reasons: some displacement values, close to the edges or in a noise-affected area, are missing and the force information is incomplete with respect to the original DDI algorithm requirements. The present study proves that with appropriate data handling, stress fields can be identified in a robust manner. The solution relies on recovering those missing data in a way that no assumption, except the balance of linear momentum, has to be made. The influence of input parameters of the method is also discussed. The overall study is conducted on synthetic data: perfect and incomplete data are used to prove robustness of the proposed solutions. Therefore, the paper can be considered as a practical guide for implementing the DDI method. L'identification de la réponse mécanique d'un matériau sans présupposer d'équation constitutive est possible grâce à l'algorithme Data-Driven Identification développé par les auteurs. Il permet de mesurer les contraintes à partir des champs de déplacement et des forces appliquées à une structure donnée ; la particularité de la technique est l'absence d'équation constitutive sous-jacente. Dans le cas d'expériences réelles, l'algorithme a été appliqué avec succès sur une feuille d'élastomère perforée déformée sous une grande contrainte. Les déplacements sont recueillis par corrélation d'images numériques et les forces nettes à l'aide d'une cellule de charge. Cependant, ces données réelles sont incomplètes pour deux raisons : certaines valeurs de déplacement, près des bords ou dans une zone affectée par le bruit, sont manquantes et les informations sur les forces sont incomplètes par rapport aux exigences de l'algorithme DDI d'origine. La présente étude prouve qu'avec un traitement approprié des données, les champs de contrainte peuvent être identifiés de manière robuste. La solution repose sur la récupération des données manquantes de manière à ce qu'aucune hypothèse, à l'exception de l'équilibre de la quantité de mouvement linéaire, ne doive être faite. L'influence des paramètres d'entrée de la méthode est également discutée. L'étude globale est menée sur des données synthétiques : des données parfaites et incomplètes sont utilisées pour prouver la robustesse des solutions proposées. Par conséquent, le document peut être considéré comme un guide pratique pour la mise en œuvre de la méthode DDI.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Messi Nguélé, Thomas, Maurice Tchuente und Jean-François Méhaut. „Social network ordering based on communities to reduce cache misses“. Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 24 - 2017 - Special... (10.05.2017). http://dx.doi.org/10.46298/arima.1448.

Der volle Inhalt der Quelle
Annotation:
Last version asked for publication 10th may; finally accepted in 6th April 2017; Accepted after minor changes in 17th October 2016, International audience ABSTRACT. One of social graph's properties is the community structure, that is, subsets where nodes belonging to the same subset have a higher link density between themselves and a low link density with nodes belonging to external subsets. Futhermore, most social network mining algorithms comprise a local exploration of the underlying graph, which consists in referencing nodes in the neighborhood of a particular node. The idea of this paper is to use the community structure during the storage of large graphs that arise in social network mining. The goal is to reduce cache misses and consequently, execution time. After formalizing the problem of social network ordering as a problem of optimal linear arrangement which is known as NP-Complet, we propose NumBaCo, a heuristic based on the community structure. We present for Katz score and Pagerank, simulations that compare classic data structures Bloc and Yale to their corresponding versions that use NumBaCo. Results on a 32 cores NUMA machine using amazon, dblp and web-google datasets show that NumBaCo allows to reduce from 62% to 80% of cache misses and from 15% to 50% of execution time. L'une des propriétés des graphes sociaux est leur structure en communautés, c'est-à-dire en sous-ensembles où les noeuds ont une forte densité de liens entre eux et une faible den-sité de liens avec l'extérieur. Par ailleurs, la plupart des algorithmes de fouille des réseaux sociaux comportent une exploration locale du graphe sous-jacent, ce qui amène à partir d'un noeud, à faire référence aux noeuds situés dans son voisinage. L'idée de cet article est d'exploiter la structure en communautés lors du stockage des grands graphes qui surviennent dans la fouille des réseaux so-ciaux. L'objectif est de réduire le nombre de défauts de cache avec pour conséquence l'amélioration du temps d'exécution. Après avoir formalisé le problème de numérotation des noeuds des réseaux sociaux comme un problème d'arrangement linéaire optimal qui est connu comme NP-Complet, nous proposons NumBaCo, une heuristique basée sur la struture en communautés. Nous présentons pour le score de Katz et Pagerank, des simulations comparant les structures de données classiques Bloc et Yale à leurs versions exploitant NumBaCo. Les résultats obtenus sur une machine NUMA de 32 coeurs à partir des jeux de données amazon, dblp et web-google montrent que NumBaCo contribue à diminuer les défauts de cache de 62% à 80% et le temps d'exécution de 15% à 50%.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Bhowate, Snehal, Kanchan Bashine, Poonam Gajbhiye, Samiksha Paidlewar, Nikhil Dharpure und Pranali Langde. „Smart Security System for Theft Protection Using Face Recognition“. International Journal of Scientific Research in Science, Engineering and Technology, 03.09.2021, 310–13. http://dx.doi.org/10.32628/ijsrset207490.

Der volle Inhalt der Quelle
Annotation:
The number of car robbery attempts at the local and international scale is rising rapidly in this modern era. By inventing robbery techniques, the owners are afraid that their cars will be robbed from their ordinary parking lot or from outside. This makes vehicle protection against robbery important as a result of insecurity. The computer vision based real-time vehicle safety system solves this problem. The proposed car safety system carries through real time user authentication based on image processing using face detection and recognition techniques and a microprocessor-based control system attached to the car. The infrarot sensor attached to the driver's vehicles seat activates the hidden camera, which is fixed inside the vehicle, as the person enters the parked vehicle overcoming the existing security features. The person's face is detected using Viola Jones algorithm once the image is obtained from the activated camera. The extracted face is recognized using the improved Linéar Discriminant Analysis (LDA) algorithm that distinguishes many features rather than looking for an exact pattern based on the Euclidean distance. Authorization requires that the threshold value is established and compared to the Euclidean distance over which the person is not authenticated. The face is sent to the mobile of the owner as an MMS via the operating GSM modem, which is classified as unknown. The owner shall be controlled with the relay in accordance with the owner’s command when the information is received. The way to authenticate the person would be efficient and efficient in terms of vehicle safety.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie