Мир должен разработать свод правил для регулирования оружия на базе искусственного интеллекта, пока оно еще находится в зачаточном состоянии. Об этом заявили участники глобальной конференции в Вене, пишет France 24 со ссылкой на AFP.
Эксперты считают, что ИИ подобно пороху и атомной бомбе способен произвести революцию в военном деле. Из-за этого конфликты могут стать совершенно иными и гораздо более смертоносными.
«Это «момент Оппенгеймера» нашего поколения, когда геополитическая напряженность угрожает направить крупный научный прорыв по очень опасному для будущего человечества пути», — говорится в резюме.
Австрия организовала и провела двухдневную конференцию в Вене, в которой приняли участие около 1000 человек. Среди них — политические лидеры, эксперты и представители гражданского общества из более чем 140 стран.
В итоговом заявлении говорится, что группа «твердо привержена безотлагательной работе со всеми заинтересованными сторонами над созданием международного правового документа по регулированию автономных систем вооружений».
«Мы обязаны действовать и установить правила, необходимые для защиты цивилизации […]. Человеческий контроль должен преобладать в применении силы», — говорится в резюме, которое направят генеральному секретарю ООН.
С помощью ИИ все виды оружия могут быть превращены в автономные системы благодаря сложным датчикам и алгоритмам, которые позволят компьютеру «видеть». Благодаря этому они смогут выбирать и атаковать человеческие цели без вмешательства военных.
Большинство таких видов оружия пока находятся на стадии идеи или прототипа. Однако современные конфликты уже позволяют увидеть их потенциал.
«Автономные системы вооружений скоро заполнят поля сражений во всем мире», — заявил министр иностранных дел Австрии Александр Шалленберг.
Он предупредил, что сейчас «настало время договориться о международных правилах и нормах, обеспечивающих человеческий контроль».
Нейтральная Австрия стремится продвигать идею разоружения на международных форумах. В 2023 году республика представила первую резолюцию ООН по регулированию автономных систем вооружений, которую поддержали 164 государства.
Напомним, в мае 2023 года американские законодатели предложили запретить ИИ запускать ядерные бомбы.
ForkLogАвтор: Богдан Каминский