EEN: EU AI Act – първите правила за изкуствен интелект в света
Снимка: Unsplash
9 декември 2023 г., прес-съобщение на Съвета на Европа:
След тридневни „маратонски“ преговори председателството на Съвета и преговарящите от Европейския парламент постигнаха временно споразумение по предложението за хармонизирани правила за изкуствения интелект (ИИ), т.нар. акт за изкуствения интелект. Проектът за регламент има за цел да гарантира, че системите за ИИ, пуснати на европейския пазар и използвани в ЕС, са безопасни и зачитат основните права и ценностите на ЕС. Това знаково предложение има за цел също така да стимулира инвестициите и иновациите в областта на ИИ в Европа.
Актът за ИИ е водеща законодателна инициатива, която има потенциала да насърчи разработването и внедряването на безопасен и надежден ИИ на целия единен пазар на ЕС както от частни, така и от публични участници. Основната идея е ИИ да се регулира въз основа на способността му да причини вреда на обществото, като се следва подход, основан на риска: колкото по-висок е рискът, толкова по-строги са правилата. Като първото по рода си законодателно предложение в света, то може да създаде глобален стандарт за регулиране на ИИ в други юрисдикции, точно както направи GDPR, като по този начин популяризира европейския подход към технологичното регулиране на световната сцена.
Основни елементи на временното споразумение
В сравнение с първоначалното предложение на Комисията основните нови елементи на временното споразумение могат да бъдат обобщени, както следва:
- правила за моделите на ИИ с високо въздействие с общо предназначение, които могат да предизвикат системен риск в бъдеще, както и за високорисковите системи на ИИ;
- преразгледана система за управление с някои правомощия за правоприлагане на равнище ЕС;
- разширяване на списъка със забрани, но с възможност за използване на дистанционна биометрична идентификация от правоприлагащите органи на обществени места, при спазване на предпазни мерки;
- по-добра защита на правата чрез задължението на внедрителите на високорискови системи за ИИ да извършват оценка на въздействието върху основните права, преди да пуснат в употреба дадена система за ИИ.
В по-конкретен план временното споразумение обхваща следните аспекти:
Определения и обхват
За да се гарантира, че определението за система за ИИ предоставя достатъчно ясни критерии за разграничаване на ИИ от по-прости софтуерни системи, компромисното споразумение привежда определението в съответствие с подхода, предложен от ОИСР.
Във временното споразумение също така се пояснява, че регламентът не се прилага за области извън обхвата на правото на ЕС и в никакъв случай не следва да засяга компетенциите на държавите членки в областта на националната сигурност или на всяка структура, натоварена със задачи в тази област. Освен това актът за ИИ няма да се прилага за системи, които се използват изключително за военни или отбранителни цели. По подобен начин споразумението предвижда, че регламентът няма да се прилага за системи за ИИ, използвани единствено за целите на научните изследвания и иновациите, или за лица, които използват ИИ по непрофесионални причини.
Класифициране на системите за ИИ като високорискови и забранени практики за ИИ
В компромисното споразумение се предвижда хоризонтално ниво на защита, включително класифициране като високорискови, за да се гарантира, че системите за ИИ, за които няма вероятност да причинят сериозни нарушения на основните права или други значителни рискове, не се улавят. Системите на ИИ, които представляват само ограничен риск, ще подлежат на много леки задължения за прозрачност, например оповестяване на факта, че съдържанието е генерирано от ИИ, така че потребителите да могат да вземат информирани решения за по-нататъшното му използване.
Широк кръг високорискови системи за ИИ ще бъдат разрешени, но ще подлежат на набор от изисквания и задължения за достъп до пазара на ЕС. Тези изисквания бяха изяснени и коригирани от съзаконодателите по такъв начин, че да са технически по-изпълними и по-малко обременителни за спазване от заинтересованите страни, например по отношение на качеството на данните или във връзка с техническата документация, която следва да бъде изготвена от МСП, за да докажат, че техните високорискови системи за ИИ отговарят на изискванията.
Тъй като системите за ИИ се разработват и разпространяват чрез сложни вериги за създаване на стойност, компромисното споразумение включва промени, с които се изяснява разпределението на отговорностите и ролите на различните участници в тези вериги, по-специално на доставчиците и потребителите на системи за ИИ. В него също така се изяснява връзката между отговорностите по Закона за ИИ и отговорностите, които вече съществуват по силата на друго законодателство, като например съответното законодателство на ЕС за защита на данните или секторното законодателство.
За някои употреби на ИИ рискът се счита за неприемлив и поради това тези системи ще бъдат забранени в ЕС. Временното споразумение забранява например манипулирането на когнитивното поведение, нецеленасоченото извличане на изображения на лица от интернет или записи от видеонаблюдение, разпознаването на емоции на работното място и в образователните институции, социалното точкуване, биометричната категоризация за извеждане на чувствителни данни, като например сексуална ориентация или религиозни убеждения, и някои случаи на прогнозна полицейска дейност за физически лица.
Системи за ИИ с общо предназначение и фундаментални модели
Добавени са нови разпоредби, за да се вземат предвид ситуации, в които системите за ИИ могат да се използват за много различни цели (ИИ с общо предназначение) и в които технологията за ИИ с общо предназначение впоследствие се интегрира в друга високорискова система. Във временното споразумение се разглеждат и специфичните случаи на системи за ИИ с общо предназначение (ИИ с общо предназначение).
Специфични правила са договорени и за фундаментални модели – големи системи, способни компетентно да изпълняват широк спектър от отличителни задачи, като например генериране на видео, текст, изображения, разговори на страничен език, изчисления или генериране на компютърен код. Временното споразумение предвижда, че моделите на основата трябва да отговарят на конкретни задължения за прозрачност, преди да бъдат пуснати на пазара. Беше въведен по-строг режим за моделите на фондации с „голямо въздействие“. Това са фундаментални модели, обучени с голямо количество данни и с усъвършенствана сложност, възможности и производителност, значително надвишаващи средните, които могат да разпространят системни рискове по веригата на стойността.