Општество
ЕУ-приоди кон регулирањето на вештачката интелигенција
Ана Пепељугоска | Авторот е адвокат/партнер во Адвокатско друштво Пепељугоски
Економија и бизнис | печатено издание | 01 јуни 2024г.
Вештачката интелигенција (во колоквијалниот говор позната и по скратеницата „AI“ од англискиот термин „Artificial intelligence“) е дефинирана како способност на машината да ги прикаже човечките способности како што се расудување, учење, планирање и креативност. Овие способности се манифестираат преку технологии кои овозможуваат симулирање на процесите на човековата интелигенција преку создавање и примена на алгоритми интегрирани во динамична компјутерска средина. И покрај тоа што е актуелна денес, значајно е да се напомене дека за прв пат терминот вештачка интелигенција е споменат во 1956 година на Летниот истражувачки проект на Дартмут за вештачка интелигенција (Dartmouth Summer Research Project on Artificial Intelligence).
Глобална дискусија за регулација на вештачката интелигенција
Вештачката интелигенција е сè почеста тема на дискусија на глобалната сцена. Па така, за брзо време вештачката интелигенција стана главна тема на разговор на светските лидери, во фокусот и на агендата на следниот самит Г7.
Фактот што вештачката интелигенција е присутна во нашето секојдневие само го потенцира прашањето на потребата од нејзино правно регулирање. Во оваа насока се забележуваат неколку обиди на компаративно ниво за регулирање на вештачката интелигенција.
Компаративни приоди за регулација на ВИ
Имено, во Соединетите Американски Држави усвоен е пристап на „лесен допир“ кон вештачката интелигенција, но повиците за нејзина регулација по низата случаи неодамна се зголемија. Кинеската администрација за сајбер-простор исто така разговара за предложената регулатива на вештачката интелигенција, додека Велика Британија работи на збир на проиновациски регулаторни принципи кои, исто така, се однесуваат на вештачката интелигенција. На меѓународно ниво, ОЕЦД има усвоено необврзувачка препорака за вештачката интелигенција во 2019 година и УНЕСКО исто така усвои препораки за етиката на вештачката интелигенција во 2021 година.
Улогата на ЕУ во регулацијата на ВИ
Во оваа констелација на односи, Европската Унија (ЕУ) се обидува да се прикаже во улогата на протагонист во амбициозен проект кој има цел воспоставување на граници (правни, етички и политички) при употребата на системите на вештачка интелигенција. Потребата од регулирањето на вештачката интелигенција законодавецот ја наоѓа во членот 114 од Договорот за ЕУ (TFEU) и тој е дел од стратегијата за единствен дигитален пазар.
Европската комисија за прв пат го има претставено својот обид за регулирање на вештачката интелигенција на 21.4.2021 година со презентриање на т.н. Акт за вештачка интелигенција („AI Act“). Иако процесот на регулирање на вештачката интелигенција долго време беше на меѓуинституционална дебата во телата на ЕУ, и тоа Советот, Комисијата и Парламентот, пред крајот на 2023 година во ЕУ е донесен т.н. Акт за вештачка интелигенција („AI Act“) .
Основни постулати на Актот за вештачка интелигенција („AI Act“)
Од правен аспект, интересни за анализа се основните постулати на кои се темели Актот за вештачка интелигенција („AI Act“). Во основата е системот за оцена на ризици кои се класифицираат во четири нивоа, направени врз база на реперкусиите кои може да ги има вештачката интелигенција врз основните човекови права и безбедноста на луѓето. Принципот на кој се уредени овие нивоа е тој што предвидува поголеми заштитни мерки онаму каде што постои опасност од поголема инвазивност на вештачката интелигенција.
1. Највисок ризик: Првото ниво ги содржи системите за вештачка интелигенција со највисок, неприфатлив ризик, чиј маркетинг и потенцијално користење се речиси целосно забранети во предлог-регулативата.
2. Висок ризик: Второто ниво е поделено на две поткатегории:
• Прва поткатегорија на системи кои подлежат на екс анте проценка на сообразноста од трети страни.
• Втора поткатегорија која е составена од независните системи наведени во Анекс III на предлог-регулативата, идентификувани врз основа на критериуми како што се: нивото на употреба на апликацијата за вештачка интелигенција, нејзината намена, бројот на потенцијално погодени луѓе, зависноста од резултатите и неповратноста на штетата. Овие системи мора да се придржуваат до строги обврски за транспарентност и за надзор.
3. Ограничен ризик: На третото ниво се наоѓаат системите каде што ризикот е ограничен и кои мора да обезбедат минимум транспарентност, фокусирајќи се на свеста на корисникот при интеракцијата со машината и релативната согласност со нејзината употреба.
4. Минимален ризик: Конечно, на четвртото ниво се системите со минимален ризик кои, во основа, се предмет на саморегулирање и сообразност со постоечката регулатива и доброволни кодекси на однесување, па оттука за нив не се предвидени посебни обврски во предлог-регулативата.
Воспоставување на нов систем на управување
Согласно постоечкиот текст, заштитен знак на Актот е воспоставување на нов систем на управување. Фактот што е предвиден само Комитет за вештачка интелигенција кој, според текстот на предлог-регулативата, има главно консултативни функции, неминовно ќе ја наметне потребата земјите членки во рамките на своите правни системи да формираат тела кои ќе бидат задолжени за следење на развојот на вештачката интелигенција и надзор на пазарот во оваа насока. Се зборува дека и националните тела за заштита на личните податоци, но и телата задолжени за имплементација на дигитализацијата и сајбер-безбедноста ќе бидат тесно вклучени во локализирањето на решенијата од оваа предлог-регулатива.
Спроведување и санкции
Имајќи ги предвид ризиците кои се основа за донесување на Актот, тој содржи листа нa санкции по примерот на Регулативата за заштита на личните податоци (GDPR), па така државите членки на ЕУ се повикани да предвидат ефективни казни и казни кои би дејствувале обесхрабрувачки за евентуалните прекршители во случај на повреда на одредбите на предлог-регулативата. Системот за санкционирање е дизајниран на три прагови:
1. До 30 милиони евра или 6 % од вкупниот годишен промет во светот од претходната финансиска година за прекршувања во врска со забранети практики или за неусогласеност со релевантните барања на личните податоци.
2. До 20 милиони евра или 4 % од вкупниот годишен светски промет од претходната финансиска година за неисполнување на кое било друго барање или обврска од регулативата.
3. До 10 милиони евра или 2 % од вкупниот годишен промет во светот од претходната финансиска година за давање неточни, погрешни или нецелосни информации до овластените тела и до националните надлежни органи како одговор на барање.
Баланс меѓу регулација и иновација
Целта на законодавецот со Актот е да направи баланс меѓу прекумерната регулација и laissez fair во еден систем на нематеријални добра, каде што премногу правила би го попречиле напредокот, но од друга страна нивното отсуството би ги загрозило основните права на граѓанското општество и слободите на луѓето. Од друга страна, ЕУ е загрижена дека доколку ова прашање не се реши на ниво на Унијата, односно се остави да биде решавано од страна на секоја држава членка поединечно, тоа може да доведе до:
1. Фрагментирање на внатрешниот пазар од аспект на суштинските елементи кои се појавуваат од употребата на вештачката интелигенција.
2. Намалување на правната сигурност за давателите на услуги на вештачка интелигенција и за корисниците на овие услуги.
Предизвици
Имајќи го предвид фактот дека во времето на создавање на текстот на Актот (тогашната предлог-регулатива) не постоеја моделите како што е познатиот Chat GPT, иако текстот од тогаш е ревидиран, од правен аспект останува интересно прашањето за одговорноста на давателите на овој тип услуги на вештачка интелигенција, за нејзините создавачи, но во крајна инстанца и за корисниците. Ако се направи паралела со регулирањето на односите на интернет-просторот и одговорноста на интернет сервис провајдерите, на креаторите на содржина и на корисниците на услуги на интернет, може да се изведе заклучок дека процесот на кристализирање на правилата во доменот на вештачката интелигенција ќе биде предизвик за правниците минимум во наредните десет години.
Импликации за С. Македонија
Како кандидатка за членство во ЕУ, Република Северна Македонија нема да ја одмине овој тренд на регулирање на вештачката интелигенција. За жал, кај нас засега нема обиди за регулирање на вештачката интелигенција. И покрај тоа што Република Северна Македонија се стреми кон членство во Европската Унија, таа не ги следи трендовите на развивање на законодавството во „модерен правец“. Па така, од лидери во регионот во регулирањето на модерните правни дисциплини и трендови, Република Северна Македонија остана последна во хармонизирањето на своето законодавство и имплементирање на прописи чија цел е регулирање на интернет-просторот, на социјалните мрежи, на дигиталните технологии, на стриминг-платформите и слично.