Европейская комиссия предложила новый закон, который установит строгие ограничения на использование искусственного интеллекта, а также подвергнет компании, уличенные в нарушении закона, потенциально крупным штрафам.

Какие именно ограничения будут применяться к технологии искусственного интеллекта и при каких условиях, будет зависеть от области применения. Исполнительный вице-президент Европейской комиссии Вестагер Хансен сказала, что одним из примеров систем искусственного интеллекта, запрещенных новым законодательством, являются системы, предназначенные для «причинения кому-либо физического или психологического вреда».

Кроме того, законодательство призывает принципиально запретить использование систем биометрической идентификации в общественных местах. Но при этом будут сделаны «очень узкие исключения, которые строго определены, ограничены и регулируются». Например, для определенных целей правоохранительных органов.

Законодательство предлагает набор правил для регулирования систем искусственного интеллекта, которые разрешены, но считаются высокорисковыми. В эту категорию входят, помимо прочего, программное обеспечение для машинного обучения, используемое в контексте критически важной инфраструктуры, и алгоритмы, отвечающие за обработку заявок на получение кредита. Согласно предложению, Европейский союз сможет оштрафовать поставщиков продуктов искусственного интеллекта с высоким уровнем риска до 6% от их общих годовых доходов, если они не соблюдают правила.

Среди требований, которые должны соблюдать такие компании, — обязательство предоставлять регулирующим органам подробную документацию о том, как работает их программное обеспечение. Более того, они должны будут продемонстрировать, что их системы искусственного интеллекта были разработаны «с должным уровнем человеческого понимания» и с использованием высококачественных обучающих данных. От таких фирм дополнительно потребуется «соблюдать самые высокие стандарты кибербезопасности и точности», — заявила Вестагер.

Третья категория систем искусственного интеллекта, которые законопроект призван регулировать, — это услуги с «ограниченным риском», такие как боты по обслуживанию клиентов. Согласно предлагаемым правилам, разработчики должны будут информировать пользователей о том, что они взаимодействуют с машиной.

Большинство типов систем искусственного интеллекта, используемых сегодня, таких как автоматические фильтры спама, не подпадут под действие закона.

«Мы сможем в полной мере воспользоваться социальным и экономическим потенциалом ИИ, только если будем уверены, что сможем снизить связанные с этим риски, — заявил Вестагер. — Для этого предлагаемая нами правовая база не рассматривает саму технологию искусственного интеллекта. Вместо этого она смотрит на то, как используется ИИ и для чего».

Чтобы законопроект стал законом, он должен быть одобрен Европейским советом и Европейским парламентом. Полный текст законопроекта по ссылке.

www.robogeek.ru — источник