Код
#новости

В Евросоюзе приняли The AI Act — единое законодательство об ИИ-моделях и нейросетях

Большие языковые модели и нейросети теперь должны регулироваться, а некоторые решения и вовсе запретили.

Законодатели Евросоюза достигли соглашения по вопросам регулирования искусственного интеллекта, нейросетей и моделей машинного обучения. Правила должны будут соблюдать разработчики подобных систем и организации, использующие ИИ-решения в своей деятельности.

Правила для нейросетей

Пока пункты The AI Act не опубликованы официально, но пресс-служба Европарламента опубликовала основные тезисы. По ним можно оценить общие требования к ИИ-решениям, доступным на территории Евросоюза:

  • разработчики моделей машинного обучения для решения базовых задач должны будут предоставлять подробную техническую документацию и описание используемых датасетов;
  • если на обучение модели ушло больше 1025 FLOPS (Floating-point Operations per Second) вычислительной мощности (уровень GPT 3.5), то к ней будут применяться более строгие правила;
  • ввели термин «ИИ высокого риска», в который входят нейросети, способные причинить вред здоровью, безопасности и влиять на политические решения;
  • специальная комиссия будет оценивать и классифицировать модели для оценки их потенциальной опасности;
  • для нейросетей с открытым исходным кодом требования ниже из-за большей прозрачности;
  • за нарушение законодательства предусмотрены штрафы от 7,5 млн евро (1,5% от оборота компании) и до 35 млн евро (7% от оборота);
  • на сумму штрафа будет влиять тяжесть нарушения и размер компании.

Вместе с ограничениями выдвинули и ряд запретов. Разработчики нейросетей не смогут использовать на территории Евросоюза следующее:

  • изображения лиц людей, собранные из интернета или с камер видеонаблюдения, для создания датасетов;
  • биометрические системы, использующие чувствительные данные пользователей, к которым относятся религиозные, философские, политические взгляды, расовая принадлежность и подобное;
  • нейросети, использующие слабости людей для обхода их воли;
  • системы распознавания эмоций в учебных заведениях и на рабочем месте;
  • составление рейтинга на основе личностных качеств и поведения в обществе;
  • нейросети, использующие данные о возрасте, экономическом и социальном положении для манипуляции.

Эксперты отмечают, что теперь разработчикам в Евросоюзе придётся искать баланс между прозрачностью и коммерческой тайной. Всё это может увеличить расходы на исследование и обеспечение работоспособности систем. Это повлияет на подорожание тарифов для пользователей. Вероятнее всего, другие страны тоже присоединятся к инициативе и подготовят собственные законодательные базы.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!

Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Научитесь: Профессия Python-разработчик Узнать больше
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована