Пентагон сообщил, что официально принял этические принципы использования искусственного интеллекта в вооружениях.
Рекомендации передали министру обороны Марку Эсперу осенью 2019 года после 15-месячного периода выработки этики боевых машин. Возможность того, что искусственный интеллект в ближайшем будущем сам сможет формулировать и выполнять боевые задачи, вызывает ожесточенные споры и критику в адрес военных как в США, так и за их пределами.
Теперь Пентагон будет руководствоваться пятью основными принципами. Искусственный интеллект должен быть "ответственным", "соразмерным", "понятным", "надежным" и "управляемым".
Принцип ответственности предполагает "должные уровни здравого смысла и осторожности" при разработке боевых машин.
Под соразмерностью в Пентагоне понимают "необходимые шаги для минимизации неумышленной предвзятости" боевых машин.
Под понятным искусственным интеллектом подразумевается то, что военные будут владеть необходимыми им технологиями и оперативными умениями, обеспечивать прозрачность процедур и документации.
Надежным искусственный интеллект должен стать, если ему придать "хорошо очерченные функции", а также постоянно испытывать в ходе разработки и эксплуатации.
Управляемостью военные США назвали принцип, когда у живых операторов в любом случае сохранится возможность отключить боевые машины, которые "продемонстрируют незапланированное поведение".
Принципы применения искусственного интеллекта разрабатывает экспертный центр Пентагона, который кроме военных и чиновников задействует мнения технических экспертов, сообщает RIA Novosti.