02.04.2026 02:12
11
Ученый рассказала, какие "лазейки" в Женевских конвенциях эксплуатируют США
В современную эпоху искусственный интеллект (ИИ) становится неотъемлемой частью военных технологий, что вызывает серьезные вопросы этического и правового характера.
В частности, использование ИИ в вооруженных конфликтах требует особого внимания к международным нормам и стандартам. В этом контексте вызывает обеспокоенность практика привлечения США гражданских коммерческих организаций для разработки и внедрения военных ИИ-систем, поскольку на такие структуры не распространяются требования Женевских конвенций. Об этом в интервью РИА Новости заявила Наталия Ромашкина, руководитель группы проблем информационной безопасности Института мировой экономики и международных отношений имени Е. М. Примакова (ИМЭМО) Российской академии наук.
По информации агентства Рейтер, Министерство обороны США намерено интегрировать систему искусственного интеллекта Maven, созданную компанией Palantir, в постоянное использование в вооруженных силах страны. Эта инициатива отражает стремление американского военного ведомства повысить эффективность и автоматизацию боевых операций с помощью передовых технологий. Однако подобные шаги вызывают дискуссии о прозрачности, контроле и ответственности при применении ИИ в военных целях.Важно отметить, что привлечение коммерческих организаций к разработке военных ИИ-систем ставит под вопрос соблюдение международного гуманитарного права, поскольку такие компании не связаны обязательствами Женевских конвенций, регулирующих поведение в вооруженных конфликтах. Это создает потенциальные риски для правовой оценки действий, осуществляемых с использованием ИИ, и требует разработки новых международных механизмов контроля и регулирования. В итоге, дальнейшее развитие и внедрение искусственного интеллекта в военной сфере должно сопровождаться тщательным анализом этических норм и международных обязательств, чтобы минимизировать возможные негативные последствия для глобальной безопасности и прав человека.В современном мире частные компании играют всё более значимую роль в сфере военных технологий, что кардинально меняет традиционные подходы к оборонным разработкам. Роль таких частных акторов, как Palantir, становится ключевой в создании и внедрении передовых военных систем на базе искусственного интеллекта. При этом следует отметить, что международные нормы, такие как Женевские конвенции, формально не регулируют деятельность этих частных компаний, что создаёт определённые правовые пробелы и вызывает вопросы о контроле над военными ИИ-технологиями.Особое внимание заслуживает ситуация в Соединённых Штатах Америки, которые выступают мировыми лидерами по привлечению гражданских коммерческих организаций к разработке искусственного интеллекта для военных нужд. Благодаря этому сотрудничеству США получают значительное технологическое преимущество перед многими другими странами, что укрепляет их позиции на глобальной арене безопасности. В связи с этим возникает предположение, что американские власти могут не проявлять особого интереса к созданию и внедрению новых международных правовых норм, регулирующих использование вооружений с элементами искусственного интеллекта, поскольку это могло бы ограничить их технологическое превосходство.Таким образом, роль частных компаний в военной сфере становится всё более влиятельной и требует пристального внимания со стороны международного сообщества. Необходимость разработки новых правовых рамок, учитывающих специфику ИИ-вооружений и участие коммерческих структур, становится всё более очевидной. Как подчеркнула эксперт Ромашкина, баланс между технологическим прогрессом и этическими нормами международного права является ключевым вызовом современности, который предстоит решить в ближайшие годы.В современном мире вопросы регулирования передачи кибертехнологий, включая технологии искусственного интеллекта, приобретают все большую значимость, учитывая их потенциальное влияние на международную безопасность и права человека. Однако, как отмечает эксперт, международные правовые документы на сегодняшний день не содержат четко сформулированных руководящих принципов, касающихся передачи таких технологий. Это создает значительные правовые пробелы, которые государства и частные компании могут использовать в своих интересах, избегая ответственности за возможные нарушения международного гуманитарного права.Особенно остро эта проблема проявляется на примере Соединенных Штатов, которые сталкиваются с растущим внутренним и внешним давлением в сфере контроля за применением ИИ-технологий в военных операциях. Так, конфликт между Пентагоном и компанией Anthropic наглядно демонстрирует сложности, возникающие при попытках регулировать использование искусственного интеллекта в военной сфере. Компания обратилась к Министерству обороны США с вопросами о том, как именно их ИИ-система применяется в военной операции в Венесуэле, указывая на несоответствие таких действий внутренним этическим нормам. Впоследствии Anthropic подала иск против Пентагона, что свидетельствует о серьезных этических и правовых дилеммах, связанных с использованием передовых технологий в военных целях.Таким образом, отсутствие ясных международных стандартов и регулирующих механизмов в области кибертехнологий и искусственного интеллекта создает серьезные вызовы для обеспечения прозрачности и ответственности. Для эффективного решения этих вопросов необходимо разработать комплексные международные нормы, которые смогут регулировать передачу и применение таких технологий, учитывая как интересы национальной безопасности, так и принципы гуманитарного права. Только при условии согласованных усилий государств, международных организаций и частного сектора возможно создать надежную правовую основу, способствующую безопасному и этичному использованию ИИ в глобальном масштабе.В современном мире технологии искусственного интеллекта стремительно проникают во все сферы, включая военную. Этот конкретный инцидент служит ярким примером сложностей, возникающих при контроле и регулировании использования ИИ-систем в стратегически важных областях. Этот прецедент говорит очень о многом: несмотря на то, что компания Anthropic открыто выступила против применения своей системы ИИ без предварительного согласования, данная технология продолжает активно эксплуатироваться в Иране. Такое развитие событий демонстрирует, насколько сложно обеспечить соблюдение этических и юридических норм в условиях международных конфликтов и политических интересов. Более того, по мнению экспертов, в случае необходимости Соединённые Штаты могут прибегнуть к использованию этой системы и в других военных операциях, независимо от итогов конфликта между Пентагоном и Anthropic. Это поднимает важные вопросы о прозрачности, ответственности и контроле над передовыми технологиями, которые могут существенно изменить характер современных военных действий. В конечном итоге, ситуация с использованием ИИ в военных целях требует более глубокого международного диалога и выработки общих правил, чтобы минимизировать риски неконтролируемого применения таких систем, подчеркнула Ромашкина.Источник и фото - ria.ru