ISSN 2071-8594

Российская академия наук

Главный редактор

Г.С. Осипов

К.Ю. Брестер, В.В. Становов, О.Э. Семенкина, Е.С. Семенкин "О применении эволюционных алгоритмов при анализе больших данных"

Аннотация.

Статья носит обзорный характер: на ряде примеров демонстрируется целесообразность использования эволюционных алгоритмов для анализа больших данных. Эволюционные алгоритмы обладают очевидными преимуществами: высокая масштабируемость и гибкость, способность решать задачи глобальной оптимизации и оптимизировать несколько критериев одновременно являются существенными при отборе информативных признаков, селекции обучающих примеров и решении других задач снижения размерности данных. В частности, рассматривается применение эволюционных алгоритмов в сочетании с такими инструментами машинного обучения как нейронные сети и нечеткие системы. Приведенные примеры доказывают, что эволюционное машинное обучение становится все более и более востребованным и ожидается дальнейшее развитие данной области, в особенности в отношении анализа больших данных.

Ключевые слова:

эволюционные алгоритмы, большие данные, отбор признаков, селекция обучающих примеров, заполнение пропусков.

Стр. 82-93.

Полная версия статьи в формате pdf.

Литература

1. Qiu J., Wu Q., Ding G., Xu Y., Feng Sh. A survey of machine learning for big data processing // EURASIP J. Adv. Signal Process, 67. 2016. doi: 10.1186/s13634-016-0355-x.
2. Zhang Z. Missing values in big data research: some basic skills // Annals of Translational Medicine, 3(21). 2015. 323 p. doi:10.3978/j.issn.2305-5839.2015.12.11.
3. Bagherzadeh-Khiabani F, Ramezankhani A, Azizi F, Hadaegh F, Steyerberg EW, Khalili D. A tutorial on
variable selection for clinical prediction models: feature selection methods in data mining could improve the results // J Clin Epidemiol, 71. 2016. P. 76–85.
4. Kohavi R., John G.H. Wrappers for feature subset selection // Artificial Intelligence, 97. 1997. P. 273–324.
5. Holland J.H. Adaptation in natural and artificial systems // J.H. Holland – Ann Arbor. MI: University of Michigan Press. 1975.
6. Goldberg D.E. Genetic algorithms in search, optimizationand machine learning // Addison-Wesley. 1989.
7. Гладков Л.А., Курейчик В.В., Курейчик В.М. Генетические алгоритмы // М.: Физматлит, 2006.
8. Карпов В.Э. Эволюционное моделирование. Проблемы формы и содержания // Новости искусственного интеллекта, №5. 2003. C.35-46.
9. Карпов В.Э. Методологические проблемы эволюционных вычислений // Искусственный интеллект и принятие решений, №4. 2012. C. 95-102.
10. Khritonenko D., Semenkin E. Distributed self-configuring evolutionary algorithms for artificial neural networks design // Vestnik SibSAU, № 4 (50). 2013. P. 112–116.
11. Курейчик В.М., Лебедев Б.К., Лебедев О.Б., Чернышев Ю.О. Адаптация на основе самообучения // РГАСХМ ГОУ, Ростов н/Д. 2004.
12. Редько В.Г. Модели адаптивного поведения – биологически инспирированный подход к искусственному интеллекту // Искусственный интеллект и принятие решений. № 2. 2008. С. 11-23.
13. Brester Ch., Semenkin E. Cooperative Multiobjective Genetic Algorithm with Parallel Implementation //Advances in Swarm and Computational Intelligence, LNCS 9140. 2015. P. 471–478.
14. Akhmedova S., Semenkin E. Co-operation of biology related algorithms // IEEE Congress on Evolutionary Computation, CEC 2013. 2013. P. 2207–2214.
15. Semenkin E., Semenkina M. Self-configuring genetic algorithm with modified uniform crossover operator // Advances in Swarm Intelligence, 2012. P. 414–421.
16. Ryzhikov I., Semenkin E. Evolutionary strategies algorithm based approaches for the linear dynamic system identification // Lecture Notes in Computer Science, Т. 7824 LNCS. 2013. P. 477–484.
17. Zaloga A., Yakimov I., Burakov S., Semenkin E., Akhmedova S., Semenkina M., Sopov E. On the application of co-operative swarm optimization in the solution of crystal structures from x-ray diffraction data // Lecture Notes in Computer Science, Т. 9140, 2015. P. 89–96.
18. Сергиенко Р.Б. Метод формирования нечеткого классификатора самонастраивающимися коэволюционными алгоритмами // Искусственный интеллект и принятие решений. 2010. №3. С. 98-106.
19. Семенкина М.Е. Самоадаптивные эволюционные алгоритмы проектирования информационных технологий интеллектуального анализа данных //Искусственный интеллект и принятие решений. 2013. №1. С. 13-24.
20. Бухтояров В.В. Эволюционный метод формирования общего решения в коллективах нейронных сетей //Искусственный интеллект и принятие решений. 2010. №3. С. 89-97.
21. Полковникова Н.А., Курейчик В.М. Многокритериальная оптимизация на основе эволюционных алгоритмов // Известия ЮФУ. Технические науки. 2015. № 2 (163). С. 149-162.
22. Ishibuchi H., Mihara S., Nojima Y. Parallel Distributed Hybrid Fuzzy GBML Models With Rule Set Migration and Training Data Rotation // IEEE Transactions on fuzzy systems, vol. 21, no. 2. 2013. P. 355–368.
23. Непомнящих В.А., Попов Е.Е., Редько В.Г. Бионическая модель адаптивного поискового поведения // Известия РАН. Серия теория и системы управления, №1. 2008. С. 85-93.
24. Lin Q, Liu W, Peng H, Chen Y. Efficient Genetic Algorithm for High-Dimensional Function Optimization //Proceedings of the 9th International Conference on Computational Intelligence and Security. 2013. P. 255–59.
25. Грошев С.В., Карпенко А.П., Мартынюк В.А.Эффективность популяционных алгоритмов парето-
аппроксимации. Экспериментальное сравнение // Интернет-журнал Науковедение. Т. 8. № 4 (35). 2016. DOI: 10.15862/67EVN416.
26. Mahajan R., Kaur G. Neural Networks using Genetic Algorithms// International Journal of Computer
Applications, 77(14). 2013. P. 6–11.
27. Thounaojam D.M., Khelchandra T., Singh K.M., Roy S. A Genetic Algorithm and Fuzzy Logic Approach for Video Shot Boundary Detection // Computational Intelligence and Neuroscience, vol. 2016. 2016. P. 11. doi:10.1155/2016/8469428.
28. Cano J. R., Herrera F., Lozano M. Evolutionary Stratified Training Set Selection for Extracting Classification Rules with trade off Precision-Interpretability // Data & Knowledge Engineering archive, volume 60, issue 1. 2007. P. 90–108.
29. Zitzler, E., Laumanns, M., Thiele, L. SPEA2: Improving the Strength Pareto Evolutionary Algorithm for Multiobjective Optimization // Evolutionary Methods for Design Optimisation and Control with Application to Industrial Problems EUROGEN 2001 3242 (103). 2002. P. 95-100.
30. Deb, K., Pratap, A., Agarwal, S., Meyarivan, T. A fast and elitist multiobjective genetic algorithm: NSGA-II // IEEE Transactions on Evolutionary Computation 6 (2). 2002. P.182-197.
31. Wang, R. Preference-Inspired Co-evolutionary Algorithms //A thesis submitted in partial fulfillment for the degree of the Doctor of Philosophy, University of Sheffield. 2013. P. 231.
32. Brester C., Semenkin E., Sidorov M. Multi-objective heuristic feature selection for speech-based multilingual emotion recognition // Journal of Artificial Intelligence and Soft Computing Research, vol. 6, no. 4. 2016. P. 243–253.
33. Fernandez A., Garcia S., Luengo J., Bernado-Mansilla E., Herrera F. Genetics-Based Machine Learning for Rule Induction: State of the Art, Taxonomy, and Comparative Study // IEEE Transactions on Evolutionary Computation, vol.14, issue 6. 2010. P. 913–941.
34. Booker L. B., Goldberg D. E., Holland J.H. Classifier systems and genetic algorithms // Artif. Intell., vol. 40, no. 1–3, 1989. P. 235–282.
35. Stanovov V., Semenkin E., Semenkina O. Selfconfiguring hybrid evolutionary algorithm for fuzzy classification with active learning // IEEE Congress on evolutionary computation (CEC 2015, Japan). 2015. DOI: 10.1109/CEC.2015.7257108.
36. Alcalá-Fdez J., Sánchez L., Garcia S., Jesus M. J., Ventura S., Garrell J.M., Otero J., Romero C., Bacardit J., Rivas V.M., Fernández J. C., Herrera F. KEEL: A software tool to assess evolutionary algorithms for data mining problems // Soft Comput., vol. 13, no. 3. 2009. P. 307–318.
37. Asuncion A., Newman D. UCI machine learning repository //University of California, Irvine, School of Information and Computer Sciences. URL: http://www.ics.uci.edu/~mlearn/MLRepository.html. 2007.
38. Alcala-Fdez J., Alcala R., Herrera F. A fuzzy association rulebased classification model for high-dimensional problems with genetic rule selection and lateral tuning //IEEE Trans. Fuzzy Syst., vol. 19, no. 5. 2011. P. 857–872.
39. Bacardit J., Burke E. K., Krasnogor N. Improving the scalability of rule-based evolutionary learning // Memetic Comput. J., vol. 1, no. 1. 2009. P. 55–67.
40. Berlanga F. J., Rivera A. J., del Jesus M. J., Herrera F. GP-COACH: Genetic programming-based learning of compact and accurate fuzzy rulebased classification systems for high-dimensional problems // Inf. Sci., vol. 180, no. 8. 2010. P. 1183–1200.
41. Sanz J.A., Fernandez A., Bustince H., Herrera F. Improving the performance of fuzzy rule-based classification systems with interval-valued fuzzy sets and genetic amplitude tuning // Inf. Sci., vol. 180, no. 19. 2010. P. 3674–3685.
42. Sanz J., Fernandez A., Bustince H., Herrera F. A genetic tuning to improve the performance of fuzzy rule-based classification systems with interval-valued fuzzy sets: Degree of ignorance and lateral position // Int. J. Approx. Reason., vol. 52, no. 6. 2011. P. 751–766.
43. Venkatadri M., Srinivasa Rao K. A multiobjective genetic algorithm for feature selection in data mining //International Journal of Computer Science and Information Technologies, vol. 1, no. 5. 2010. P. 443–448.
44. Brester C., Kauhanen J., Tuomainen T.P., Semenkin E., Kolehmainen M. Comparison of two-criterion
evolutionary filtering techniques in cardiovascular predictive modelling // Proceedings of the 13th International Conference on Informatics in Control, Automation and Robotics (ICINCO’2016), Lisbon, Portugal, vol. 1. 2016. P. 140–145.
45. Sidorov M., Brester C., Semenkin E., Minker W. Speaker State Recognition with Neural Network-based Classification and Self-adaptive Heuristic Feature Selection // Proceedings of the 11th International Conference on Informatics in Control, Automation and Robotics (ICINCO’2014), Vienna, Austria, 2014, vol. 1. 2014. P. 699–703.
46. Schafer, J.L., Graham, J.W. Missing Data: Our View of the State of the Art // Psychological Methods, vol. 7, no. 2. 2002. P. 147–177.