Дата поступления: 
17.04.2024
Библиографическое описание статьи: 

Аршинский Л.В., Жукова М.С., Шурховецкий Г.Н. Проблемы информационной безопасности в системах искусственного интеллекта, использующих модель предметной
области // Информационные технологии и математическое моделирование в управлении сложными системами: электрон. науч. журн. 2024. №1 С.36-44. – Режим доступа: http://ismm-irgups.ru/toma/121-2024, свободный. – Загл. с экрана. – Яз. рус., англ. (дата обращения: 17.04.2024)

Год: 
2024
Номер журнала (Том): 
УДК: 
004.8+004.056
Файл статьи: 
Страницы: 
36
44
Аннотация: 

В работе исследуются проблемы информационной безопасности интеллектуальных информационных систем, использующих в своём составе модель предметной области: базу знаний для экспертных систем, архитектурный файл для искусственных нейронных сетей и т.п. Вопрос рассматривается с точки зрения защиты команд, данных и коммуникации. Делается вывод, что защищать надо в первую очередь данные в форме модели предметной области как «интеллектуальное ядро» системы. Защита исполнимых файлов вторична, хотя тоже важна. Защита коммуникации может осуществляться традиционными средствами. Для защиты модели предлагается обратить внимание на такой приём, как её фрагментацию с последующим разнесением фрагментов по различным, в том числе географически удалённым хранилищам.

Список цитируемой литературы: 

1. Лапушкин А. Сферы применения систем искусственного интеллекта. – URL: https://maff.io/media/sfery-primeneniya-sistem-iskusstvennogo-intellekta/ (дата обращения: 21.03.2024).

2. Сферы применения искусственного интеллекта: от медицины до сельского хозяйства. – URL: https://gb.ru/blog/sfery-primeneniya-iskusstvennogo-intellekta/ (дата обращения: 21.03.2024).

3. На что способен искусственный интеллект сегодня и каков его потенциал. – URL: https://trends.rbc.ru/trends/industry/cmrm/619766d59a79471862e77e8a (дата обращения: 21.03.2024).

4. 5 применений ИИ, в которых он конкурирует с человеком. – URL: https://habr.com/ru/companies/toshibarus/articles/580930/ (дата обращения: 21.03.2024).

5. Путь искусственного интеллекта от фантастической идеи к научной отрасли. – URL: https://habr.com/ru/companies/cloud4y/articles/469447/ (дата обращения: 21.03.2024).

6. Федеральный закон от 24.04.2020 N 123-ФЗ. «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных». – URL: http://publication.pravo.gov.ru/Document/View/ 0001202004240030 (дата обращения: 21.03.2024).

7. Ли Яо. Нормативно-правовое регулирование генеративного искусственного интеллекта в Великобритании, США, Европейском союзе и Китае // Право. Журнал Высшей школы экономики, 2023. – Том 16, № 3. – С. 245-267.

8. Морхат П.М. Риски и угрозы, связанные с применением искусственного интеллекта // Аграрное и земельное право, 2017. – №12(156). – С. 60-65.

9. Артамонов В.А., Артамонова Е.В. Проблемы искусственного интеллекта: мифы и реальность. – URL: https://cyberleninka.ru/article/n/problemy-iskusstvennogo-intellekta-mif... (дата обращения: 21.03.2024).

10. Рассел С., Норвиг П. Искусственный интеллект: современный подход, 2-е изд.: Пер. с англ. – М.: Издательский дом «Вильямс», 2006. – 1408 с.

11. Аршинский Л.В., Жукова М.С. Интеллектуальные информационные системы и технологии: учебное пособие. – Иркутск: ИрГУПС, 2023. – 128 с.

12. Вострецова Е.В. Основы информационной безопасности: учебное пособие для студентов вузов. – Екатеринбург: Изд-во Урал. Ун-та, 2019. – 204 с.

13. Намиот Д.Е. Введение в атаки отравлением на модели машинного обучения // International Journal of Open Information Technologies, 2023. – Т. 11, № 3. – С. 58-66.

14. Bagdasaryan E., Shmatikov V. Blind backdoors in deep learning models // 30th USENIX Security Symposium, 2021. – pp.1505-1521.

15. Апресов С. Что такое «отравление данных». Методы защиты от атак data poisoning. – URL: https://digitalocean.ru/n/podryvnaya-deyatelnost/ (дата обращения: 28.03.2024).

16. Гаскаров Д.В. Интеллектуальные информационные системы. Учеб. для вузов. – М.: Высш. шк., 2003. – 431 с.

17. Жилин В.В., Сафьян О.А. Искусственный интеллект в системах хранения данных // Вестник Донского государственного технического университета, 2020. Т. 20, № 2. – С. 196-200.

18. Бабенко Г.В. Анализ современных угроз безопасности информации, возникающих при сетевом взаимодействии // Вестник АГТУ. Сер.: Управление, вычислительная техника и информатика, 2010. – № 2. – URL: https://cyberleninka.ru/article/n/analiz-sovremennyh-ugroz-bezopasnosti-... (дата обращения: 28.03.2024).

19. Вартанян А.А. Угрозы и атаки сетевой безопасности. – URL: https://cyberleninka.ru/article/n/ugrozy-i-ataki-setevoy-bezopasnosti/vi... (дата обращения: 28.03.2024).

20. Ромашкина Н.П., Махукова А.В. Компьютерная вредоносная атака на ядерную программу Ирана // Информационные войны, 2013. – № 4. – С. 40-50.

21. Аршинский Л.В., Шурховецкий Г.Н. Особенности применения метода рассечения-разнесения для безопасного хранения данных во внешних хранилищах // Информационные технологии, 2021. №5. т. 27. С. 259-266. DOI: 10.17587/it.27.259-266