Exposant de Lyapunov maximum
MaisonMaison > Blog > Exposant de Lyapunov maximum

Exposant de Lyapunov maximum

Jun 26, 2023

Rapports scientifiques volume 13, Numéro d'article : 12744 (2023) Citer cet article

281 Accès

Détails des métriques

L'algorithme de moisissure visqueuse (SMA) est un algorithme inspiré de la nature qui simule les mécanismes d'optimisation biologique et a obtenu d'excellents résultats dans divers problèmes d'optimisation stochastique complexes. Grâce au principe de recherche biologique simulée de la moisissure visqueuse, SMA présente un avantage unique dans le problème d'optimisation globale. Cependant, il souffre toujours du problème de manquer la solution optimale ou de s’effondrer vers l’optimum local face à des problèmes complexes. Pour surmonter ces inconvénients, nous envisageons d'ajouter un nouvel opérateur local multi-chaotique au mécanisme de retour de bio-choc de SMA afin de compenser le manque d'exploration de l'espace de solution local à l'aide de la nature perturbatrice de l'opérateur chaotique. Sur cette base, nous proposons un algorithme amélioré, à savoir MCSMA, en étudiant comment améliorer la sélection probabiliste d'opérateurs chaotiques basée sur l'exposant de Lyapunov maximum (MLE), une propriété inhérente aux cartes chaotiques. Nous mettons en œuvre la comparaison entre MCSMA avec d'autres méthodes de pointe lors du Congrès IEEE sur le calcul de l'évolution (CEC), c'est-à-dire les combinaisons de tests de référence CEC2017 et les problèmes pratiques CEC2011 pour démontrer sa puissance et effectuer une formation sur modèle de neurone dendritique pour tester la robustesse de MCSMA sur les problèmes de classification. Enfin, les sensibilités des paramètres du MCSMA, l'utilisation de l'espace de solution et l'efficacité du MLE sont discutées de manière adéquate.

Les stratégies métaheuristiques deviennent de plus en plus répandues pour résoudre tous les types de problèmes d’optimisation mathématique. Contrairement aux heuristiques traditionnelles précédentes, les méta-heuristiques peuvent traiter une gamme étendue et plus complexe de situations-problèmes en raison de leur généralité, qui ne dépend pas des conditions spécifiques d'un problème particulier1,2. « Meta » peut être compris comme une sorte de transcendance et d'extension de l'objet original. Une méta-heuristique est plutôt une idée ou un concept développé sur des méthodes heuristiques. À proprement parler, une heuristique est une solution fixe élaborée à partir des caractéristiques d’un problème donné pour obtenir une meilleure solution. La méta-heuristique est une sorte de procédure abstraite, qui construit un ensemble de processus ou de méthodologie universels.

De nos jours, à mesure que l'échelle de calcul et la complexité des divers problèmes d'application d'ingénierie augmentent, les algorithmes et heuristiques d'optimisation traditionnels d'origine peuvent ne plus être confrontés à la situation pratique actuelle3,4, par exemple, la classification et la simulation d'images, l'optimisation des structures porteuses des bâtiments, les paramètres de l'énergie solaire. optimisation, etc5. Ces problèmes sont des problèmes NP-difficiles multidimensionnels, non linéaires et multi-ajustements6, qui ont posé de grands défis au système informatique existant. En conséquence, les informaticiens espèrent innover dans l’ensemble du système informatique, tant du point de vue matériel que logiciel7,8. C’est là que les méta-heuristiques apparaissent comme une mise à niveau des algorithmes de l’architecture sous-jacente. Les méta-heuristiques sont un raffinement des heuristiques, qui sont le produit de la combinaison d'algorithmes stochastiques et de recherche locale. Ils créent un processus capable de s'affranchir de l'optimum local et d'effectuer une recherche robuste dans l'espace des solutions en coordonnant l'interaction entre l'amélioration locale et les stratégies opérationnelles9. Au cours de la procédure, les stratégies de recherche sont habituées à acquérir et à maîtriser les informations pour trouver efficacement la solution optimale approximative. Par conséquent, le mécanisme opérationnel de la méta-heuristique ne dépend pas trop du modèle organisationnel d’une situation donnée. Ce principe peut être appliqué de manière diffuse à l’optimisation combinatoire et au calcul de fonctions10,11.

En métaheuristique, l’intelligence en essaim a suscité un intérêt et une attention considérables dans les domaines de l’optimisation, de l’intelligence computationnelle et de l’informatique ces dernières années12. Il présente un comportement informatique intelligent grâce à une simple coopération entre chaque intelligence et montre une capacité de sélection bien plus forte qu'un individu dans le cas d'une sélection optimale13,14. L’optimisation des colonies de fourmis (ACO) est une réalisation fondamentale dans le développement de la théorie systématique de l’intelligence en essaim. Dorigo et coll. ont étudié la planification réelle de l'itinéraire d'une colonie de fourmis et l'utilisation d'un mécanisme de phéromone biologique, en utilisant la concentration de phéromones comme indice de qualité pour guider les individus vers le chemin le plus court15. La population de la génération suivante détermine la voie supérieure dans tout l'espace en fonction de l'intensité des phéromones de la génération précédente. Plus l'intensité des phéromones est grande sur un certain itinéraire, plus les individus sont susceptibles de dessiner sur cet itinéraire. La route avec la phéromone la plus élevée peut être considérée comme la solution optimale recherchée par l’algorithme16,17. ACO possède une bonne capacité de recherche globale et est largement utilisé dans de nombreux domaines d’optimisation combinatoire18. Par exemple, Gao et al. amélioré l'idée de clustering k-means dans ACO et proposé un algorithme de clustering de colonies de fourmis qui a obtenu des résultats considérables dans la résolution des problèmes de routage de localisation dynamique19. L’optimisation par essaim de particules (PSO) diffère de l’ACO en ce sens que PSO accorde plus d’attention à l’orientation de l’apprentissage décisionnel et au partage collaboratif d’informations lorsque toutes les particules traversent l’espace de solution20,21. Dans une itération par période, chaque particule est obligée de faire un jugement d'apprentissage sur l'opportunité de modifier l'itinéraire qui repose sur l'aptitude à mesurer la solution optimale globale et la solution optimale locale. Ainsi, le PSO accélère le taux de convergence en extrayant le meilleur du courant, et la population de particules présente un taux de convergence élevé en termes d'exploration. Un large éventail d’études liées aux PSO ont désormais été mises en œuvre dans des systèmes complexes, des optimisations traditionnelles et même des problèmes d’ingénierie à grande échelle22. Les deux algorithmes ci-dessus font partie des algorithmes de renseignement démographique les plus répandus et les plus efficaces. Et puis tout un tas d’algorithmes méta-heuristiques basés sur des idées d’intelligence en essaim ont émergé, notamment l’algorithme de luciole23, l’algorithme d’optimisation des baleines (WOA)24, l’algorithme de pollinisation des fleurs25, l’algorithme de colonie d’abeilles artificielles26, etc.