Ответственность в контексте применения искусственного интеллекта в условиях вооруженных конфликтов
Просмотры: 71 / Загрузок PDF: 23
DOI:
https://doi.org/10.32523/2616-6844-2024-148-3-55-74Ключевые слова:
международное гуманитарное право, кибероперации, машинное обучение, цифровые технологии, вооруженный конфликт, международная безопасностьАннотация
Актуальность проведения исследования обусловлена тем, что вследствие развития военных технологий, их использование становится угрозой для национальной и международной безопасности, в связи с чем существует высокий риск нарушения норм международного права. Исходя из этого, цель статьи состоит в проведении анализа законодательной доктрины в контексте применения искусственного интеллекта в условиях вооруженных конфликтов. Для этого были использованы такие методы, как логический анализ, функциональный анализ, дедукции, индукции, формально-юридический, догматический и другие. В ходе проведения исследования была изучена законодательная доктрина Казахстана, которая включала в себя проведение анализа положения Конституции, Постановления и решения Конституционного Суда. Также проведен анализ международных нормативно-правовых актов, включая Конвенцию о запрещении определенных видов оружия, Женевскую Конвенцию и ее Дополнительные протоколы, с акцентом на выявление нарушений и применение принципов международного права для оценки противоправных действий в вооруженных конфликтах. Особое внимание уделено определению субъектов, вовлеченных в такие действия, для последующего применения ответственности в соответствии с нормами международного права. Выдвинута идея разработки специализированного международного документа, нацеленного на комплексное регулирование особенностей применения искусственного интеллекта в вооруженных конфликтах. Полученные результаты имеют практическую значимость в предоставлении рекомендаций, направленных на учет этических аспектов и урегулирование вопросов ответственности, связанных с использованием искусственного интеллекта в контексте вооруженных конфликтов.