В Европе могут ограничить использование ИИ
Некоторые сферы деятельности, связанные с ним, предлагают исключить.
markus winkler / unsplash
Еврокомиссия представила новые правила использования искусственного интеллекта. По мнению регулирующего органа, такие технологии могут представлять собой опасность для общества, поэтому нужно ограничить области их применения во всех государствах, относящихся к ЕС.
Предложение ещё должно быть одобрено в Европейском совете и Европарламенте. И о конечном решении говорить сложно: эксперты предполагают, что такие правила сделают разработку ИИ в этих странах дорогой и технологически невозможной — ведь ЕС придётся ограничивать собственные стартапы, в то время как США и Китай будут стремительно развиваться в этой сфере.
Ограничения зависят от категории. Например, программы, манипулирующие поведением человека или ограничивающие свободу воли пользователей, а также системы, которые позволяют правительствам проводить «социальную оценку», считаются относящимися к группе неприемлемого риска.
Следующая категория — высокий риск. Здесь авторы проекта обозначили сферы, в которых использование искусственного интеллекта необходимо ограничить. Это транспорт, образовательная и профессиональная подготовка, роботизированная хирургия, управление сотрудниками, правоохранительные органы, управление миграцией и пограничным контролем, а также судебные процессы.
Помимо прочего, в Еврокомиссии предложили ограничить использование ИИ для распознавания лиц в общественных местах. Исключение — случаи, когда технологии применяются при поиске пропавших детей или преступников, а также для предотвращения терактов.
К группе ограниченного риска отнесли ИИ-системы, в которых уделено внимание обеспечению прозрачности. Это, например, чат-боты. Взаимодействуя с ними, пользователи должны быть осведомлены, что они общаются с программой.
В категорию минимального риска попало большинство ИИ-технологий — к ним относятся, например, видеоигры с поддержкой AI или спам-фильтры. По мнению Еврокомиссии, они не несут никакой опасности.