Угроза «восстания машин» реальна и ближе, чем мы могли бы подумать - контролируем ли мы прогресс?
Угроза «восстания машин» реальна и ближе, чем мы могли бы подумать - контролируем ли мы прогресс?
От автономных автомобилей до цифровых помощников - искусственный интеллект становится повседневной частью нашей жизни. Но не стоит забывать о том, что ИИ внедряется и в оружие для использования в различных конфликтах...

Военный ИИ играет важную роль в стратегиях безопасности США, Китая и России. Некоторые существующие системы вооружений уже имеют существенную автономность, основанную на ИИ. Это вполне может говорить нам о том, что машины потенциально смогут принимать решения о причинении вреда и убийстве людей на основе их алгоритмов, без вмешательства человека в принятие этого решения.


Военные, поддерживающие использование искусственного интеллекта, утверждают, что он позволяет им реагировать на возникающие угрозы с большей скоростью, что это снижает риск потери людей со своей стороны и повышает способность поражать цели с большей точностью. Таким образом, всё ведёт к тому, что принятие решений о применении силы тоже будет отдано машинам с ИИ, и на недавнем заседании ООН представители различных стран согласились с тем, что недопустимо по этическим и юридическим основаниям делегировать подобные решения машинам без человеческого контроля.

Тут, правда, возникают разночтения с понятием «человеческий контроль» у различных стран. Взять, к примеру, рассекреченный 1 сентября 2020 года американский документ, описывающий руководящие принципы по новым технологиям в области смертоносных автономных систем вооружения. С одной стороны, речь в документе о том, что человеческий контроль присутствует на протяжении всего жизненного цикла оружия — от разработки до применения и на различных этапах принятия военных решений. С другой стороны, весь этот контроль является, скорее, иллюзией, так как сведён до ситуаций, от которых не зависит итоговое решение, принимаемое в конечном счёте на основе алгоритмов. Для каждого высокопоставленного военного это отличный шанс снять с себя любую ответственность, ведь: «так решила машина».


Более того, операторы этих алгоритмов, как правило, не имеют достаточной квалификации для того, чтобы понять, как эти системы рассчитывают цели и «принимают решения». Это и есть иллюзия человеческого контроля, ведь, в отличие от машин, человеческие решения о применении силы не могут быть запрограммированы заранее. Согласитесь, что основная тяжесть обязательств относится к фактическим конкретным решениям о применении силы непосредственно на поле боя в быстро меняющихся условиях ведения войны, требующей постоянной оценки со стороны человека. Это отчётливо проявляется в условиях ведения боёв в городе, когда гражданские лица и противник находятся в одном пространстве.

Помимо прочего, ИИ невозможно запрограммировать так, чтобы он ценил человеческую жизнь, поэтому наличие машины, способной принимать решение о её прекращении, противоречит всем возможным нормам. Не менее сложно запрограммировать оценку контекста решений о применении силы. Как итог, было бы неплохо для начала разработать правовые нормы, обеспечивающие полноценный контроль человека над автономными системами вооружений.

Как считаете, нас ждёт сюжет «Терминатора», жизнь под контролем ИИ или светлое будущее в интеграции с ним?
Опубликовано 18 октября 2020 Комментариев 0 | Прочтений 1164

Ещё по теме...
Добавить комментарий