Изкуственият интелект между правото, риска и човека: Европа задава рамката, България търси посоката
Две разнообразни гледни точки – юридическа и технологично-обществена – обрисуват една и съща картина: Европа построява първата в света цялостна регулаторна рамка за изкуствения разсъдък, само че има заплаха България да влезе в този развой с действителни опасности от институционално или друго закъснение, а държанието на бизнеса, образованието и администрацията у нас може да бъде несъмнено като „ високорисково “.
В изявление за Българска телеграфна агенция юрист Атанас Костов, ръководещ съучастник на адвокатска фирма „ ЮСАУТОР “, преглежда Регламента за изкуствения разсъдък (AI Act) като фундаментална смяна в правото – акт, който за първи път контролира самите логаритми съгласно риска, който носят за индивида и обществото. Той предизвестява, че неналичието на национална рамка, готови съдилища и специалисти може да докара до безредно и репресивно правоприлагане, което да удари нововъведенията и бизнеса. Според него Закондателният акт за изкуствения разсъдък (AI Act) неизбежно ще сътвори нова правна специализация – „ право на изкуствения разсъдък “, а човешкият контрол ще остане основен детайл, без значение от навлизането на автоматизацията в правораздаването и администрацията.
Костов акцентира, че законът слага индивида в центъра посредством механизми за бистрота, човешки контрол и сертификация, само че предизвестява за съществени опасности в България: липса на специалисти, неясноти в дефинициите, неявяване на национални подзаконови актове и неопитност на съдилищата. Като юрист с дългогодишна процедура в разногласия по интелектуална благосъстоятелност, конкуренция, интернет право и отбрана на онлайн бизнеси той вижда директна заплаха неправилното правоприлагане да докара до репресии над компании и нововъведения.
От своя страна специалистът по киберсигурност Ясен Танев слага акцента върху практическата страна на регулацията и върху човешкия фактор. Той акцентира, че Европа е избрала друг път от Съединени американски щати и Китай – път, в който етиката и индивидът са в центъра. Танев предизвестява за неналичието на „ AI хигиена “ в България, за всеобщото и рисково потребление на генеративни модели без оценка на въздействието и за илюзията, че фирмите имат време до 2026 година, в случай че основни разпореждания на AI Act стартират да се ползват още през август 2025 година Той преглежда AI Act като част от по-широка регулаторна екосистема, дружно с DORA, NIS2, Акта за киберустойчивост и Акта за данните, и упорства, че устойчивостта е въпрос на избор – и за бизнеса, и за страната.
И двамата събеседници се сплотяват към извода, че най-големият недостиг на България не е в инфраструктурата, а в компетентността – в квалифицираните хора, в институционалния потенциал и в способността обществото да направи съзнателен избор по какъв начин да употребява изкуствения разсъдък. Без това рискът не е просто софтуерен, а либерален и стопански, акцентират те.
Следват цялостните текстове на интервютата:
- Реагира ли Европа съответно и бързо на провокациите, свързани с развиването на изкуствения разсъдък и с какво Актът за изкуствения разсъдък се разграничава от предходни софтуерни регулации, като GDPR и DSA?
Атанас Костов: Законодателният правилник за изкуствения разсъдък (от англ. AI Act) е неповторим по своя изчерпателен темперамент европейски нормативен акт, тъй като основава юридически правила за систематизиране на онлайн системите въз основата на софтуерния риск, който те съставляват за жителите. За разлика от GDPR, който се концентрира върху отбраната на персоналните данни, или Акта за цифровите услуги, който контролира цифровите платформи и наличието, AI Act задава ясни юридически рамки за разработчици и консуматори на ИИ технологии, в това число забрани за системи с недопустим риск, условия за бистрота и сертификация на високорискови системи, т.е. формулира разпоредбите за правоприлагане по тематиката „ изкуствен интелект “.
Регламентът за изкуствения разсъдък не е просто още един общоевропейски закон — той трансформира парадигмата. Докато GDPR контролира отбраната на персонални данни, а Актовете за цифровите услуги и пазари (съответно DSA и DMA) визират услуги и цифрови платформи, AI Act контролира самите системи за изкуствен интелект съгласно тяхната цел, приложимост и евентуален риск, като думата „ риск “ е водеща. Законът вкарва критерии за риск-базиран метод: системите, работещи с изкуствен интелект, се класифицират според риска, който допускат: най-малък, стеснен, висок или недопустим. Именно тази логичност образува и структурата на Регламента по отношение на други нормативни актове, уреждащи разнообразни аспекти на онлайн средата.
По създание това значи, че изкуственият разсъдък към този момент не се третира просто като програмен продукт, а като пригодим продукт/система с условия за документи, бистрота, отговорност и сигурност. Това прави Акта за изкуствения разсъдък качествено друг нормативен акт от GDPR и други сходни, да ги назовем „ обичайни софтуерни регулации “.
Ясен Танев: Много е значимо първо да разберем, че световната конкуренция в изкуствения разсъдък не тече, тя спринтира. Има два огромни водача с изцяло разнообразни цели и регулациите им са подчинени точно на тези цели.
В Съединените щати всичко е движено от капитала, от бързата облага и от рисковите вложения. Там регулацията има една съществена задача – да подтиква рисковия капитал да се насочва към тази сфера, като в същото време се лимитира износът на основни технологии към конкурентни страни.
От другата страна е вторият хегемон – Китай. Там регулацията и доктрината са напълно в услуга, цел и изгода на Китайската комунистическа партия и на разбирането ѝ за „ богатство за народа “. Това е философия, радикално друга от американската.
Хубавото при Европа е, че тя не е нито американският „ безчовечен пазар “, нито източната философия на Китай. Европа трябваше да има лично лице. И точно това лице виждаме в Актa за изкуствения разсъдък – един изкуствен интелект, в който хората имат място.
Тази регулация ми харесва, тъй като в случай че я четем умерено и без боязън, ще забележим, че индивидът е подложен в центъра. Всеки, който желае да работи в Европа, би трябвало да се преценява с нашите европейски етични правила. Етиката не е периферен детайл – тя е сърцевината.
Много значимо е и това, че във всички тези регулации участва рисково-базиран метод. Затова считам, че Актът за изкуствения разсъдък е в действителност европейски. Това, което би трябвало да създадем, е да не плашим хората. Политиките и процедурите са написани главно от адвокати, само че те би трябвало да вървят ръка за ръка с софтуерни ограничения, пояснения и експертна оценка на риска.
- Доколко този метод е използван в действителността на българския бизнес, който към този момент употребява автоматизация и машинно образование?
Ясен Танев: В момента в България има сериозен проблем с неналичието на по този начин наречената „ AI хигиена “. Консумира се всевъзможен изкуствен интелект, подават се всевъзможни данни и се стига до интелектуално и даже психическо комплициране - и в моделите, и при потребителите.
Поведението на бизнеса, образованието и администрацията сега може умерено да бъде несъмнено като високорисково. Причината е елементарна - не се приказва по тематиката разбираемо. А логиката е доста обикновена.
Ако приказваме за обществена администрация - Институтът за обществена администрация, да вземем за пример, е написал даже и приканва: преди да започнете да употребявате изкуствен интелект, направете оценка на въздействието. Това е обикновено. Това е процедура, която в страната по принцип съществува - вършат се оценки на въздействието и на законите.
Обаче българските бизнеси, жителите и образованието - тъй като още не усещат тази рамка (не че и страната я усеща изцяло, само че най-малко пренаписва един стратегически документ) - не схващат едно основно нещо: когато употребяват модели, на които подават данни, моделите „ взимат “ тези данни и не ги не помнят. Никога.
Това значи, че преди да дадете каквито и да било данни на модел, би трябвало да си зададете въпроса: „ Бих ли бил подготвен тези данни да бъдат излъчени по националното радио, Българска телеграфна агенция да ги показа умерено, или да ги обявявам в интернет със свободен достъп? “. Ако имате и най-малкото подозрение, че не бихте го създали, тогава си задайте идващия въпрос: „ Бих ли бил подготвен да ги споделя с изкуствен интелект, който евентуално се употребява от целия свят? “ И оттук насетне моментът към този момент е подобен – и това го написа и в Акта за изкуствения разсъдък, който стъпва и върху стандарт – ISO 42001 - който споделя: преди да започнете въобще да си мислите да употребявате системи, употребяващи изкуствен интелект, би трябвало да извършите оценка на въздействието. Тоест, преди да продължите напред и една стъпка, би трябвало да си отговорите: по какъв начин това ще се отрази на индивида, на обществото, на промишлеността и на околната среда? Ако там срещнете риск - спрете!
Следващият въпрос е с какви данни ще го захраните и кой може да има достъп до тези данни? Ако не сте сигурни какви са данните или кой ще ги получи - спрете още веднъж.
Третата стъпка е: до каква степен тези данни са подготвени да бъдат обработвани. Защото всеобщо има данни, които не са подготвени - не са машинночетими, не са структурирани, или пък съдържат дискриминативна, подвеждаща или погрешна информация. Това значи, че освен няма да постигнете резултат, а ще „ болестите “ международния разсъдък с нелепости, в случай че споделяте такива данни.
И продължавайки нататък, в случай че още не сте се спрели при тези въпроси, идва идващият: има ли кой да поддържа това? Защото в случай че стартира да работи, то би трябвало да бъде следено. Един ненаблюдаван изкуствен интелект, който е в началната си фаза и още няма самостоятелно схващане, е като да оставите чинчила в къщата си без контрол за една седмица и без храна. Тя ще нагризе всичко, ще направи бели и като се върнете, ще бъдете унищожени – тъй като планът ви за „ нов дом “ ще е погубен.
Ако минете по тези стъпки и някъде си кажете: „ Съмнявам се “ - спрете и премислете! Ако някъде си кажете „ не “ - спрете! Само към 5 % от плановете с изкуствен интелект имат триумф - и не поради проблеми с интернет или технологиите, а поради неверната преценка на хората.
- В някои чат платформи има алтернатива данните да не бъдат употребявани за образование. Това не е ли задоволителна отбрана?
Ясен Танев: Нека да обясня по какъв начин работят моделите и техните лични „ пластове “ и детайли. Много постоянно те са проведени към абонаментен модел, който по логичност доста наподобява на този при незаконните стимуланти. Първоначално ви дават безвъзмезден достъп. Ако „ се вържете “, стартират да ви желаят дребна такса. Когато започнете да ставате подвластни, към този момент желаят услуги от вас - с цел да продължите да получавате продуктите на същата цена. А в случай че в един миг решите, че здравето ви е значимо, тогава стартирате да плащате за премиум услуга.
Същата логичност съществува и при изкуствения разсъдък. Безплатният достъп е основан с ясна цел - да се събират данни, с цел да се образоват моделите и да се следи държанието на потребителите. В същото време тези безвъзмездни версии работят по-бавно и имат съществени ограничавания - нормално тъкмо в моментите, в които са ви най-нужни.
Платените проекти към този момент събират вашите данни по последователен метод. Те не ви дават безусловно доста по-голям потенциал, само че истината е, че в голяма степен също „ се хранят “ с вашите данни, с цел да могат моделите да се дообучават. Следващото равнище са професионалните проекти - те са по-скъпи, изискват ангажимент за устойчива връзка, нормално са за най-малко една година и за няколко индивида. При тях към този момент огромните модели не се образоват непосредствено с вашите данни.
Проблемът е, че при тези равнища на надзор, които виждаме при доста платформи и услуги, постоянно липсва задоволителна бистрота - както във връзка с самия модел, по този начин и във връзка с валидирането му. Затова, когато решите, че желаете да работите на последващо равнище и към този момент сте осъзнали целия път, за който приказваме, разумната стъпка е да преминете към лични инстанции на изкуствен интелект, ситуирани в облака. Такива решения оферират „ Майкрософт “ (Microsoft), „ Google “ (Google), а „ Амазон “ (Amazon) също интензивно работи в тази посока.
Тогава към този момент имате тънък надзор върху държанието на модела - кой защо приказва, дали се отклонява от заложените рамки, по какъв начин се пази. Тези защитни механизми се назовават guardrails - защитни стени, които ви дават доста по-голям надзор. Разбира се, този надзор коства повече.
А когато решите, че тематиката е в действителност сериозна - да вземем за пример занимавате се съществено с киберсигурност и анализирате данни от логове от събития, с цел да могат екипите да реагират бързо - тогава към този момент следва да инвестирате в лична инфраструктура. Това значи сървър за към 100 000 евро, с най-малко две карти със лични графични процесори, образование на частен модел с отворен код и разполагането му в дейта център. В този миг разноските ви от 20 или 200 $ на месец скачат до няколко хиляди $.
Но истината е, че всички професионални принадлежности си заслужават парите. Именно по тази причина оценката - по кое време, за какво и на какво равнище да употребявате изкуствен интелект - е безусловно наложителна.
- Как се вписва AI Act в по-широката европейска регулаторна рамка – GDPR, DSA, DMA, DORA, NIS2? Получава ли се действителна „ регулаторна екосистема “?
Атанас Костов: AI Act е умислен като допълнение, а не като подмяна на съществуващите регулации в региона на онлайн технологиите. Целта е създаване на правна екосистема, която да сътвори доверие у европейските жители - GDPR пази персоналните данни, DSA и DMA контролират платформите и конкуренцията, а AI Act се грижи за сигурността и етичността на системите, функциониращи под изкуствен интелект.
Разбира се, съществува риск от излишно усложняване и припокриване, само че европейските институции плануват по-координиран метод посредством механизми за контрол, взаимни регистри и правосъдна процедура.
Затова наблягам: AI Act би трябвало да се преглежда в подтекста на цялата правна рамка на Европейски Съюз - за отбрана на данни, цифрови услуги, конкуренция, стандарти и други Той не анулира предходните регулации, а ги добавя. Така ще се сътвори интегрирана „ регулаторна екосистема “, в която другите правила се допълват разумно, софтуерно и юридически.
В същото време рискът от нормативно припокриване е действителен, изключително в случай че не се подсигурява съгласуваност сред институциите, ясно систематизиране на отговорностите и вярно структурирана бъдеща правосъдна процедура. Компаниите и юристите ще би трябвало да наблюдават както AI Act, по този начин и GDPR, DSA и DMA - това е нов тип секторно софтуерно право, по което сега няма готови експерти, тъй като изисква знания освен в правото, само че и в технологиите.
Най-новите технологии във финансовия и обществения бранш да вземем за пример ще са композиция от блокчейн и изкуствен интелект (покупко-продажба на акции, транспортни билети, заплащане на налози, гласоподаване и др.). В доста страни от Европейски Съюз към този момент има правосъдна процедура за ръководство на принадлежности в блокчейн среда от изкуствен интелект. Знам, че това звучи шокиращо, само че в Англия, Франция, Италия и Швейцария такива каузи към този момент са факт.
Българският съд към момента не е чувал за тях. Националните съдилища мъчно се оправят даже с тривиални разногласия за марки, дизайни, авторски права и домейни, камо ли със комплицирани каузи за изкуствен интелект, от който доста съдии нямат визия.
Ясен Танев: Много добър въпрос, и тъкмо по този начин би трябвало да се мисли. Организациите би трябвало да познават регулаторната рамка в нейната целокупност, с цел да могат да вършат интегрирано внедряване, а не да гледат всеки акт поотделно.
Начинът, по който аз виждам връзката, е следният. Актът за Изкуствения разсъдък всъщност пази хората от други хора, които могат да злоупотребят с технологията. В същото време самият изкуствен интелект събира данни – освен от диалози, само че и от телеметрия, от устройства, от крайни потребителски детайли.
Когато изкуственият разсъдък събира данни от устройства и крайни потребителски устройства, тогава Актът за данните (Data Act) влиза директно в деяние. Когато изкуственият разсъдък работи върху крайни устройства и би трябвало да бъде приложим от хора с разнообразни дефицити, тогава към този момент навлизаме в Акта за досегаемост.
Когато изкуственият разсъдък е вграден в свързани устройства - термометри, умни коли, умни тв приемници, касови апарати и въобще устройства, които споделят между тях - тогава те би трябвало да дават отговор на условията за киберсигурност и на Акта за киберустойчивост.
Ако пък обработката на данни е обвързвана с модели, които се намират на сървъри, тогава към този момент влизаме във веригата на доставчиците на облачни услуги, което попада и в обсега на Директивата NIS2.
И когато приказваме съответно за Европейския правилник за цифрова оперативна резистентност (DORA), всеки участник във финансовия и застрахователния бранш, който употребява системи с изкуствен интелект за профилиране - и, не дай си Боже, взема решения за застраховки, компенсации или по различен метод въздейства върху живота, здравето и ориста на крайния субект - попада по едно и също време под действието на Акта за изкуствения разсъдък. А DORA, от своя страна, се интересува съответно от киберрисковете. Така че доставчиците на решения с изкуствен интелект също влизат в обсега.
И всичко това се подрежда в една смислена, обвързвана екосистема от регулации, стандарти за киберсигурност и правила за ръководство на данните. Това не са обособени части, а елементи от една обща логичност.
- Г-н Костов, Вие говорите за философията зад закона - за салдото сред индивида и машината. Смятате ли, че европейското право съумява да реализира този баланс, или има риск от несъразмерен надзор, който може да задуши нововъведенията?
Атанас Костов: Регламентът ясно слага индивида в центъра. Всички високорискови системи би трябвало да бъдат ръководени от хора, а не автоматизирано - това е главната философия на AI Act. Целта е да се подтиква нововъведението, като в същото време се пазят главните права.
Риск от задушаване на нововъведенията съществува - през днешния ден доста процеси в развойната активност, от медикаментите до автомобилостроенето и галактическите технологии, се правят в забележителна степен от изкуствен интелект. Но този риск е уравновесен, тъй като най-важно е наличието, което индивидът задава на системата.
От позиция на правото основаването на ясни правила за стартъпи, работещи с ИИ, както и минимални условия за нискорисковите системи, е задоволително, с цел да бъде постоянна нормативната рамка и да не се стигне до обстановка, в която технологията „ убива правото “.
Една от основните хрумвания на AI Act е индивидът да остане в центъра. Затова Регламентът вкарва условия за бистрота, оценка на риска, човешки контрол и отговорност.
Но дали салдото ще се резервира, зависи от правоприлагането и правосъдната процедура. Ако регулацията стане прекомерно тежка и несъответствуваща, рискът от недоумение от страна на съда е голям и може да задуши започващи планове. Затова е нужна експертност, еластичност и адаптивност от страна на правоприлагащите органи.
Дано съдиите стартират да се образоват в тази сфера. Днес сходна „ експертна преквалификация “ в българските съдилища отсъства изцяло. Ще го кажа непосредствено - българските съдии са софтуерно некомпетентни. Делата, свързани с изкуствен интелект, доста скоро ще се появят и в България, и тогава този минус ще има голям юридически резултат.
Защо съм толкоз сигурен? Днес българските нотариуси правят голям брой нарушавания на GDPR, като сформират протоколи за засвидетелствуване на обстоятелства онлайн без съблюдаване на условията за отбрана и предварителна защита. Съдът (ВАС и АССГ) към този момент е постановил няколко решения, които пазят явни нарушавания. След като има проблеми даже с разбирането на GDPR - относително елементарен акт - представете си какво ще стане с AI Act, където резултатите са доста по-тежки.
Познавам българската правосъдна система от първо лице, тъй като като юрист в областта на високите технологии всекидневно работя с нея.
- Регламентът в действителност слага индивида в центъра – „ технология в работа на обществото “. Как ще се подсигурява това на процедура - посредством контрол, сертификация, етични кодекси или правосъден надзор?
Ясен Танев: Човещината е първата и най-силна гаранция за човешки насочения изкуствен интелект в Европа. Но в случай че погледнем и регулаторната рамка, ще забележим, че тя е построена към рисково-базиран метод, при който рисковете не са дефинирани по отношение на машините или капитала, или ролята на Китайската комунистическа партия, а по отношение на въздействието върху индивида.
Дори при базовите модели - по този начин наречените генеративни модели за общо предопределение, които всички използваме всекидневно - се изисква регистрация за бистрота. Те би трябвало да подсигуряват, че моделите им не са дискриминационни или обременени с изкривявания. Това към този момент го видяхме ясно при съпоставяне на разнообразни модели - „ Дийпсийк “ (Deepseek), „ ЧатДжиПиТи “ (ChatGPT), „ Джемини “ (Gemini), „ Грок “ (Grok), европейския модел „ Мистрал “ (Mistral).
При високорисковите приложения логиката е още по-ясна. Ако система с изкуствен интелект взема решения, които могат директно да повлияят на индивида, тя наложително попада в режима на висок риск. Европа доста ясно е споделила: когато решение на машина може да засегне човешкия живот, права или орис, там би трябвало да има непоколебим надзор и човек в цикъла.
Атанас Костов: На процедура това ще се подсигурява посредством композиция от ограничения: сертификация на високорискови системи, човешки контрол, условия за бистрота, етични кодекси и опция за подаване на тъжби. Освен това Службата на Европейски Съюз за изкуствен интелект ще следи прецизно за използването на Регламента, в това число за точността на оценките и за спазването на правата на хората, като ще съблюдава и разпоредбите на Хартата на главните права.
AI Act планува многостепенен механизъм: основават се европейски и национални надзорни органи (вкл. нова конструкция на равнище ЕС), процедури за оценка на сходство и сертификация, изключително за високорискови системи, както и етични и механически стандарти.
Но този модел: „ контрол + сертификация + регулация + стандарти “, може да работи, единствено в случай че е подсилен от квалифицирани специалисти, транспарантни процедури и действителен административен потенциал. В противоположен случай рискуваме официални решения без на практика резултат.
- Кои са най-големите правни неясноти съгласно Вас при използването на регламента у нас - дефинициите, надзорните органи или механизмите за наказания? Или пък неналичието на задоволително квалифицирани специалисти?
Атанас Костов: Най-големите провокации ще бъдат свързани с ясното дефиниране на високорисковите системи, ефикасния контрол и използването на наказания. Липсата на квалифицирани специалисти също е сериозен фактор, защото оценката на ИИ системи изисква както юридически, по този начин и механически познания.
В този подтекст българското правоприлагане в бъдеще би трябвало да се оправи със следните проблеми, които през днешния ден не съществуват, само че доста скоро - безусловно на следващия ден, ще бъдат на дневен ред:
- Липса на ясни дефиниции и класификации: въпроси като по кое време една система е „ високорискова “, по кое време е просто „ инструмент “, по кое време би трябвало да се ползват строги условия. Регламентът дава нормативна рамка на тези понятия, само че те би трябвало да бъдат вярно дефинирани на експертно равнище, с цел да не се получи принуда над физическо лице или бизнеси, основани на непознаване на софтуерните действителности в детайли;
- Липса на национални подзаконови актове, които да приспособяват регламента към българския подтекст, което води до правна несигурност;
- Недостатъчен административен и механически потенциал: контрол, сертификация, надзор, оценка изискват запаси и компетентност;
- Липса на задоволително квалифицирани адвокати и механически експерти, които да схванат и ползват AI правото.
А ситуацията в органите за следствие е още по-тежко. Сектор „ Компютърни закононарушения “ към ГДБОП не разполага със експерти, които могат да проверяват закононарушения, осъществявани посредством изкуствен интелект. Разкриваемост няма. Жалбите завършват без следствие.
Фермите за компютърни измами по света работят точно посредством изкуствен интелект. Потърпевшите в България са десетки хиляди. Реакцията на прокуратурата и ГДБОП - нулева.
Казвам това като човек, който през последната година е подал десетки сигнали за блокчейн измами, осъществени посредством ИИ. Резултатът - нула.
Ясен Танев: Има неясноти, и те стартират още от преводите. Затова постоянно приканвам - четете актовете на британски, преди да започнете да ги прилагате на български.
Компетентните органи са избрани, само че процесът по тяхното действително овластяване и създаване на потенциал занапред следва. Самият развой по осъзнаване на техните отговорности в подтекста на характерните функции за пазарите или секторите, които те ще надзирават, е обвързван с създаване на компетентност.
Преди няколко дни отбелязахме три години от стартирането на „ ЧатДжиПиТи “. Това е доста къс интервал, в случай че погледнем какъв брой малко са хората, които действително имат пълномощия за оперативно ръководство на рисковете, свързани с изкуствения разсъдък. А точно тези хора са основни, с цел да може по-късно да се стигне до правоприлагане, до санкциониране или до навигиране на процесите.
Според мен компетентността на един орган не значи просто той да бъде „ разгласен “ или официално избран. Компетентният орган би трябвало да влага в ограмотяване на поднадзорните си единици и едвам откакто е провел целенасочени акции за образование, осветляване на задачите и обяснение на условията, тогава може да чака противоположна връзка за осъществяване. И чак по-късно – при липса на осъществяване – да постанова санкции. Това е развой, който занапред следва.
И това е в действителност скъпо, тъй като сега, в случай че приказваме за инспектори по ISO 42001 – стандарта за системи с изкуствен интелект – аз персонално познавам двама в България. Не съм сигурен какъв брой са общо в страната, евентуално към петима, тъй като това е извънредно нов стандарт и въобще нов метод на мислене. Дори измежду хората, които действително са изграждали системи с изкуствен интелект, евентуално единствено двама от петима в действителност схващат дълбочината на тематиката. Това единствено по себе си демонстрира какъв брой нова и комплицирана е тя.
И тъкмо по тази причина моето обръщение е следното: тази тематика не трябва да влиза със боязън. Тя би трябвало да бъде обяснявана, „ приземявана “ и правена използвана. Ако хората я възприемат като нещо нереално и заплашително, ще се стигне до блокаж, а не до развиване.
Големият късмет за България е точно тук. При състояние че към този момент имаме толкоз доста инфраструктура - построяват се гигафабрики, влагат се съществени средства, имаме и суперкомпютър в София Тех Парк, който продължава да се разраства - действителният недостиг не е в инфраструктурата. Реалният недостиг е в естествения разсъдък.
А естественият разсъдък не се основава с бетон и кабели. За него са нужни добра храна, хубаво време и добър климат - в необятния смисъл на думата. България е идеално място за развъждане на мозъци.
- България към момента няма профилиран Закон за изкуствения разсъдък, въпреки че има законопроект. Какви опасности носи това за фирмите, които към този момент употребяват AI решения?
Атанас Костов: Логиката сочи, че откакто се появи европейски правилник по дадена тематика, то навреме би трябвало да се създаде и национална правна рамка. По нея сега даже не се работи, тъй като специалисти по тематиката безусловно няма. Всичко това значи, че фирмите в България ще би трябвало да се придържат към европейския правилник, което пък от своя страна води до извода, че те ще би трябвало да внедрят механизми за оценка на риска и бистрота, даже при липса на народен закон.
Това може да усили административната тежест, като в един миг ще докара и до налагането на разнообразни типове наказания по Регламента за изкуствения разсъдък, без да е образувана национална рамка за положителни практики на експертно равнище.
Тази липса ще значи и че фирмите в България ще би трябвало да се ориентират единствено по европейските правила - без национални насоки, акомодации и административна поддръжка, като всичко това ще усили правната неустановеност и може да подтиква „ пренасяне “ на нововъведения към страни с по-добро регулаторно обслужване (като Румъния например), което няма да е нещо ново за нашата действителност.
Ясен Танев: Аз познавам Божидар Божанов (вносител на законопроекта - б.ред.) и съчувствува на опита му. Но би трябвало да сме реалисти - даже и в изискванията на протестна конюнктура внасянето на подобен закон не предполагаше някой да му обърне съществено внимание в този миг. И без значение от това, че самодейността му е всъщност добра, методът логичен би трябвало да бъде друг.
Ние би трябвало да тръгнем от момента, в който Актът за изкуствения разсъдък минава през поднадзорните и способените органи. Именно те би трябвало първо да изградят личната си идея, да създадат скрининг на потребностите по браншове и да осмислят ролята си. Едва по-късно може да се приказва за консолидиране на национални детайли или допълващо законодателство.
Хубавото при Акта за изкуствения разсъдък е, че той е непосредствено използван. Тоест, рамката към този момент съществува. Спазва ли се? Смятам, че се подценява извънредно доста.
Ако ние сами не се грижим за киберсигурността си – тъй като не желаеме да бъдем „ мутирани “ цифрово и да се превърнем в част от бот мрежа, която нападна сериозна инфраструктура - тогава няма по какъв начин да чакаме някой различен да го направи вместо нас. Ако желаеме знанията ни да бъдат предпазени, а не разхвърляни по целия свят, и в случай че желаеме да изградим резистентен бизнес, ние би трябвало умишлено да създадем избор и оценка.
Този избор е елементарен, въпреки и неуместен: значимо ли е за мен да бъда цифрово и киберустойчиво дружество, или сега желая просто да изкарам бързи пари, без да ме интересува какво ще се случи на следващия ден, когато организацията ми се срине или когато данните ми изтекат - и по какъв начин това ще се отрази на хората, които работят при мен.
Това е въпрос както на бизнеса, по този начин и на страната, и той е фундаментален. В последна сметка изборът се свежда до едно: желая ли да оцелея, или не.
- Регламентът не разрешава системи за обществено кредитиране и прочувствено различаване. Смятате ли, че това е задоволителна отбрана на главните права на жителите, или ще има потребност от по-ясни подзаконови актове?
Атанас Костов: Тези забрани са добра първа стъпка, само че сигурно ще бъдат нужни подзаконови актове и механически стандарти, които да детайлизират по какъв начин се ползват рестриктивните мерки и по какъв начин се потвърждава сходството с правата на жителите. Предвидените забрани за неприемливи практики - като обществено кредитиране, операции, непрозрачно профилиране, биометрична идентификация - са значим детайл на отбрана. Но самите забрани не подсигуряват всичко - належащо е ясно дефинирани подзаконови актове, надзор, наказания и ефикасна процедура от съда и правоприлагащите органи(кои са те в България не излиза наяве, тъй като няма национална регламентация). Без тях възбраните могат да останат единствено официални.
- Как гледате на въпроса за отговорността при неточност на логаритъм – кой дава отговор, в случай че ИИ вземе погрешно решение в медицината, правото или администрацията?
Атанас Костов: Отговорността ще лежи върху разработчиците и доставчиците на високорисковите системи, като Регламентът планува ясни механизми за отчетност и документи. Човешкият контрол остава основен, тъй че институциите и експертите, които употребяват ИИ, също ще носят частична отговорност.
AI Act планува разпределена отговорност: производителят/доставчикът носи отговорност за сигурността и съответствието; операторът/ползвателят - за вярната употреба; а надзорните органи - за надзор и наказания. Тук ще попитам отново: кои са тези надзорни органи в България? До момента - към края на 2025, няма богата правосъдна процедура, тъй че действителната отговорност ще се оформя с първите правосъдни каузи. Това значи, че настоящият интервал е решителен: салдото сред отговорност, нововъведения и отбрана към момента се построява, уповавам се и по народен ред, само че не съм чул в България да се работи по народен закон по тематиката, създаване на административна рамка, санкциониращи органи и така нататък
- Г-н Костов, Вие изразявате увереност, че в бъдеще ИИ може да размени съдии, частни правосъдни реализатори и нотариуси. Това провокация ли е, или действителна вероятност? И какво би означавало това за правилото на човешкия контрол, заложен в закона?
Атанас Костов: Това е действителна вероятност, изключително за рутинни и логичен задания. Човешкият контрол ще се резервира като гаранция за правата на жителите, само че машините ще могат да правят примитивен разбор и да автоматизират процедурите, повишавайки успеваемостта на правораздаването и администрацията.
Повечето адвокатски адвокатски фирми и ЧСИ към този момент по един или различен метод вкараха работа с изкуствен интелект, като наблягам, че качеството на материала и дилемите, които са му заложени водят и до съответния позитивен или негативен материал. Като патентен юрист ще кажа и че изкуствения разсъдък навлезе доста и в областта на медицината( ранна диагностика), фармацията, създаването на медикаменти, изследователската и развойна активност при патентоването на машини и уреди и така нататък
- Според Вас ще се стигне ли до нужда от нова философия на правото - такава, която регистрира ролята на машината като юридически индивид? Ще се наложи ли юристите в България да развиват нова специализация - „ право на изкуствения разсъдък “ - по прилика с ИТ правото преди 15 години?
Атанас Костов: Определено. ИТ правото към този момент е одобрена компетентност в юридическите специалности, а с въвеждането на AI Act ще се наложи нова дисциплинираност - „ право на изкуствения разсъдък “. Както споделих и първоначално, юристите ще би трябвало да схващат освен законодателството, само че и действието на логаритмите на софтуерно равнище, с цел да обезпечат дейно правоприлагане. В множеството страни в съдилищата се основават профилирани сформира, които да натрупват процедура и познания тъкмо във високотехнологичния бранш, с цел да постановяват решения с презюмираната адекватност. Да се надяваме, че някой ден и българската правосъдна система ще узрее за тези положителни практики, вместо да се бори с заключения от вида: „ дали един домейн е комерсиална марка или не “? „ Борбата “ по тази тематика към момента продължава и не е явен отговорът.
- Какво бихте посъветвали българските компании и адвокати - по какъв начин да се приготвят за 2026 година, когато регламентът ще стартира да се ползва изцяло?
Атанас Костов: Съветът ми е да стартират подготовка още в този момент - да образоват експерти по право на изкуствения разсъдък, да внедрят механизми за оценка на рисковете от употребяваните системи в бизнеса, производството, обществената среда, да се научат да употребяват механизми за бистрота и софтуерен контрол, и да разработят вътрешни етични кодекси и екипи с хибридни компетентности онлайн, тъй като в доста от случаите точно индивидът употребява изкуствения разсъдък с незаконосъобразни цели. Тези стъпки ще обезпечат равномерен преход към новата правна действителност и ще понижат риска от наказания през днешния ден, когато по един или различен животът ни директно е опосреден от изкуствения разсъдък.
Ясен Танев: Това е едно от нещата, които откровено ме забавляват. Понеже на всички места се повтаря, че „ актът влиза в действие през август 2024 година “, всеобщо хората автоматизирано си поставят две години напред и споделят: август 2026 година И си мислят, че до тогава имат време (Актът влиза в действие през август 2024 година с публикуването му в Официалния вестник на Европейския съюз. Посочваният двугодишен период произтича от общото предписание за използване на по-голямата част от отговорностите по регламента. Основните условия към бизнеса и обществената администрация, в това число тези за високорисковите системи с изкуствен интелект, стартират да се ползват 24 месеца след влизането му в действие - бел. ред.). Само че има една съответна дата, за която съвсем никой не приказва – 2 август 2025 година Именно на 2 август 2025 г
В изявление за Българска телеграфна агенция юрист Атанас Костов, ръководещ съучастник на адвокатска фирма „ ЮСАУТОР “, преглежда Регламента за изкуствения разсъдък (AI Act) като фундаментална смяна в правото – акт, който за първи път контролира самите логаритми съгласно риска, който носят за индивида и обществото. Той предизвестява, че неналичието на национална рамка, готови съдилища и специалисти може да докара до безредно и репресивно правоприлагане, което да удари нововъведенията и бизнеса. Според него Закондателният акт за изкуствения разсъдък (AI Act) неизбежно ще сътвори нова правна специализация – „ право на изкуствения разсъдък “, а човешкият контрол ще остане основен детайл, без значение от навлизането на автоматизацията в правораздаването и администрацията.
Костов акцентира, че законът слага индивида в центъра посредством механизми за бистрота, човешки контрол и сертификация, само че предизвестява за съществени опасности в България: липса на специалисти, неясноти в дефинициите, неявяване на национални подзаконови актове и неопитност на съдилищата. Като юрист с дългогодишна процедура в разногласия по интелектуална благосъстоятелност, конкуренция, интернет право и отбрана на онлайн бизнеси той вижда директна заплаха неправилното правоприлагане да докара до репресии над компании и нововъведения.
От своя страна специалистът по киберсигурност Ясен Танев слага акцента върху практическата страна на регулацията и върху човешкия фактор. Той акцентира, че Европа е избрала друг път от Съединени американски щати и Китай – път, в който етиката и индивидът са в центъра. Танев предизвестява за неналичието на „ AI хигиена “ в България, за всеобщото и рисково потребление на генеративни модели без оценка на въздействието и за илюзията, че фирмите имат време до 2026 година, в случай че основни разпореждания на AI Act стартират да се ползват още през август 2025 година Той преглежда AI Act като част от по-широка регулаторна екосистема, дружно с DORA, NIS2, Акта за киберустойчивост и Акта за данните, и упорства, че устойчивостта е въпрос на избор – и за бизнеса, и за страната.
И двамата събеседници се сплотяват към извода, че най-големият недостиг на България не е в инфраструктурата, а в компетентността – в квалифицираните хора, в институционалния потенциал и в способността обществото да направи съзнателен избор по какъв начин да употребява изкуствения разсъдък. Без това рискът не е просто софтуерен, а либерален и стопански, акцентират те.
Следват цялостните текстове на интервютата:
- Реагира ли Европа съответно и бързо на провокациите, свързани с развиването на изкуствения разсъдък и с какво Актът за изкуствения разсъдък се разграничава от предходни софтуерни регулации, като GDPR и DSA?
Атанас Костов: Законодателният правилник за изкуствения разсъдък (от англ. AI Act) е неповторим по своя изчерпателен темперамент европейски нормативен акт, тъй като основава юридически правила за систематизиране на онлайн системите въз основата на софтуерния риск, който те съставляват за жителите. За разлика от GDPR, който се концентрира върху отбраната на персоналните данни, или Акта за цифровите услуги, който контролира цифровите платформи и наличието, AI Act задава ясни юридически рамки за разработчици и консуматори на ИИ технологии, в това число забрани за системи с недопустим риск, условия за бистрота и сертификация на високорискови системи, т.е. формулира разпоредбите за правоприлагане по тематиката „ изкуствен интелект “.
Регламентът за изкуствения разсъдък не е просто още един общоевропейски закон — той трансформира парадигмата. Докато GDPR контролира отбраната на персонални данни, а Актовете за цифровите услуги и пазари (съответно DSA и DMA) визират услуги и цифрови платформи, AI Act контролира самите системи за изкуствен интелект съгласно тяхната цел, приложимост и евентуален риск, като думата „ риск “ е водеща. Законът вкарва критерии за риск-базиран метод: системите, работещи с изкуствен интелект, се класифицират според риска, който допускат: най-малък, стеснен, висок или недопустим. Именно тази логичност образува и структурата на Регламента по отношение на други нормативни актове, уреждащи разнообразни аспекти на онлайн средата.
По създание това значи, че изкуственият разсъдък към този момент не се третира просто като програмен продукт, а като пригодим продукт/система с условия за документи, бистрота, отговорност и сигурност. Това прави Акта за изкуствения разсъдък качествено друг нормативен акт от GDPR и други сходни, да ги назовем „ обичайни софтуерни регулации “.
Ясен Танев: Много е значимо първо да разберем, че световната конкуренция в изкуствения разсъдък не тече, тя спринтира. Има два огромни водача с изцяло разнообразни цели и регулациите им са подчинени точно на тези цели.
В Съединените щати всичко е движено от капитала, от бързата облага и от рисковите вложения. Там регулацията има една съществена задача – да подтиква рисковия капитал да се насочва към тази сфера, като в същото време се лимитира износът на основни технологии към конкурентни страни.
От другата страна е вторият хегемон – Китай. Там регулацията и доктрината са напълно в услуга, цел и изгода на Китайската комунистическа партия и на разбирането ѝ за „ богатство за народа “. Това е философия, радикално друга от американската.
Хубавото при Европа е, че тя не е нито американският „ безчовечен пазар “, нито източната философия на Китай. Европа трябваше да има лично лице. И точно това лице виждаме в Актa за изкуствения разсъдък – един изкуствен интелект, в който хората имат място.
Тази регулация ми харесва, тъй като в случай че я четем умерено и без боязън, ще забележим, че индивидът е подложен в центъра. Всеки, който желае да работи в Европа, би трябвало да се преценява с нашите европейски етични правила. Етиката не е периферен детайл – тя е сърцевината.
Много значимо е и това, че във всички тези регулации участва рисково-базиран метод. Затова считам, че Актът за изкуствения разсъдък е в действителност европейски. Това, което би трябвало да създадем, е да не плашим хората. Политиките и процедурите са написани главно от адвокати, само че те би трябвало да вървят ръка за ръка с софтуерни ограничения, пояснения и експертна оценка на риска.
- Доколко този метод е използван в действителността на българския бизнес, който към този момент употребява автоматизация и машинно образование?
Ясен Танев: В момента в България има сериозен проблем с неналичието на по този начин наречената „ AI хигиена “. Консумира се всевъзможен изкуствен интелект, подават се всевъзможни данни и се стига до интелектуално и даже психическо комплициране - и в моделите, и при потребителите.
Поведението на бизнеса, образованието и администрацията сега може умерено да бъде несъмнено като високорисково. Причината е елементарна - не се приказва по тематиката разбираемо. А логиката е доста обикновена.
Ако приказваме за обществена администрация - Институтът за обществена администрация, да вземем за пример, е написал даже и приканва: преди да започнете да употребявате изкуствен интелект, направете оценка на въздействието. Това е обикновено. Това е процедура, която в страната по принцип съществува - вършат се оценки на въздействието и на законите.
Обаче българските бизнеси, жителите и образованието - тъй като още не усещат тази рамка (не че и страната я усеща изцяло, само че най-малко пренаписва един стратегически документ) - не схващат едно основно нещо: когато употребяват модели, на които подават данни, моделите „ взимат “ тези данни и не ги не помнят. Никога.
Това значи, че преди да дадете каквито и да било данни на модел, би трябвало да си зададете въпроса: „ Бих ли бил подготвен тези данни да бъдат излъчени по националното радио, Българска телеграфна агенция да ги показа умерено, или да ги обявявам в интернет със свободен достъп? “. Ако имате и най-малкото подозрение, че не бихте го създали, тогава си задайте идващия въпрос: „ Бих ли бил подготвен да ги споделя с изкуствен интелект, който евентуално се употребява от целия свят? “ И оттук насетне моментът към този момент е подобен – и това го написа и в Акта за изкуствения разсъдък, който стъпва и върху стандарт – ISO 42001 - който споделя: преди да започнете въобще да си мислите да употребявате системи, употребяващи изкуствен интелект, би трябвало да извършите оценка на въздействието. Тоест, преди да продължите напред и една стъпка, би трябвало да си отговорите: по какъв начин това ще се отрази на индивида, на обществото, на промишлеността и на околната среда? Ако там срещнете риск - спрете!
Следващият въпрос е с какви данни ще го захраните и кой може да има достъп до тези данни? Ако не сте сигурни какви са данните или кой ще ги получи - спрете още веднъж.
Третата стъпка е: до каква степен тези данни са подготвени да бъдат обработвани. Защото всеобщо има данни, които не са подготвени - не са машинночетими, не са структурирани, или пък съдържат дискриминативна, подвеждаща или погрешна информация. Това значи, че освен няма да постигнете резултат, а ще „ болестите “ международния разсъдък с нелепости, в случай че споделяте такива данни.
И продължавайки нататък, в случай че още не сте се спрели при тези въпроси, идва идващият: има ли кой да поддържа това? Защото в случай че стартира да работи, то би трябвало да бъде следено. Един ненаблюдаван изкуствен интелект, който е в началната си фаза и още няма самостоятелно схващане, е като да оставите чинчила в къщата си без контрол за една седмица и без храна. Тя ще нагризе всичко, ще направи бели и като се върнете, ще бъдете унищожени – тъй като планът ви за „ нов дом “ ще е погубен.
Ако минете по тези стъпки и някъде си кажете: „ Съмнявам се “ - спрете и премислете! Ако някъде си кажете „ не “ - спрете! Само към 5 % от плановете с изкуствен интелект имат триумф - и не поради проблеми с интернет или технологиите, а поради неверната преценка на хората.
- В някои чат платформи има алтернатива данните да не бъдат употребявани за образование. Това не е ли задоволителна отбрана?
Ясен Танев: Нека да обясня по какъв начин работят моделите и техните лични „ пластове “ и детайли. Много постоянно те са проведени към абонаментен модел, който по логичност доста наподобява на този при незаконните стимуланти. Първоначално ви дават безвъзмезден достъп. Ако „ се вържете “, стартират да ви желаят дребна такса. Когато започнете да ставате подвластни, към този момент желаят услуги от вас - с цел да продължите да получавате продуктите на същата цена. А в случай че в един миг решите, че здравето ви е значимо, тогава стартирате да плащате за премиум услуга.
Същата логичност съществува и при изкуствения разсъдък. Безплатният достъп е основан с ясна цел - да се събират данни, с цел да се образоват моделите и да се следи държанието на потребителите. В същото време тези безвъзмездни версии работят по-бавно и имат съществени ограничавания - нормално тъкмо в моментите, в които са ви най-нужни.
Платените проекти към този момент събират вашите данни по последователен метод. Те не ви дават безусловно доста по-голям потенциал, само че истината е, че в голяма степен също „ се хранят “ с вашите данни, с цел да могат моделите да се дообучават. Следващото равнище са професионалните проекти - те са по-скъпи, изискват ангажимент за устойчива връзка, нормално са за най-малко една година и за няколко индивида. При тях към този момент огромните модели не се образоват непосредствено с вашите данни.
Проблемът е, че при тези равнища на надзор, които виждаме при доста платформи и услуги, постоянно липсва задоволителна бистрота - както във връзка с самия модел, по този начин и във връзка с валидирането му. Затова, когато решите, че желаете да работите на последващо равнище и към този момент сте осъзнали целия път, за който приказваме, разумната стъпка е да преминете към лични инстанции на изкуствен интелект, ситуирани в облака. Такива решения оферират „ Майкрософт “ (Microsoft), „ Google “ (Google), а „ Амазон “ (Amazon) също интензивно работи в тази посока.
Тогава към този момент имате тънък надзор върху държанието на модела - кой защо приказва, дали се отклонява от заложените рамки, по какъв начин се пази. Тези защитни механизми се назовават guardrails - защитни стени, които ви дават доста по-голям надзор. Разбира се, този надзор коства повече.
А когато решите, че тематиката е в действителност сериозна - да вземем за пример занимавате се съществено с киберсигурност и анализирате данни от логове от събития, с цел да могат екипите да реагират бързо - тогава към този момент следва да инвестирате в лична инфраструктура. Това значи сървър за към 100 000 евро, с най-малко две карти със лични графични процесори, образование на частен модел с отворен код и разполагането му в дейта център. В този миг разноските ви от 20 или 200 $ на месец скачат до няколко хиляди $.
Но истината е, че всички професионални принадлежности си заслужават парите. Именно по тази причина оценката - по кое време, за какво и на какво равнище да употребявате изкуствен интелект - е безусловно наложителна.
- Как се вписва AI Act в по-широката европейска регулаторна рамка – GDPR, DSA, DMA, DORA, NIS2? Получава ли се действителна „ регулаторна екосистема “?
Атанас Костов: AI Act е умислен като допълнение, а не като подмяна на съществуващите регулации в региона на онлайн технологиите. Целта е създаване на правна екосистема, която да сътвори доверие у европейските жители - GDPR пази персоналните данни, DSA и DMA контролират платформите и конкуренцията, а AI Act се грижи за сигурността и етичността на системите, функциониращи под изкуствен интелект.
Разбира се, съществува риск от излишно усложняване и припокриване, само че европейските институции плануват по-координиран метод посредством механизми за контрол, взаимни регистри и правосъдна процедура.
Затова наблягам: AI Act би трябвало да се преглежда в подтекста на цялата правна рамка на Европейски Съюз - за отбрана на данни, цифрови услуги, конкуренция, стандарти и други Той не анулира предходните регулации, а ги добавя. Така ще се сътвори интегрирана „ регулаторна екосистема “, в която другите правила се допълват разумно, софтуерно и юридически.
В същото време рискът от нормативно припокриване е действителен, изключително в случай че не се подсигурява съгласуваност сред институциите, ясно систематизиране на отговорностите и вярно структурирана бъдеща правосъдна процедура. Компаниите и юристите ще би трябвало да наблюдават както AI Act, по този начин и GDPR, DSA и DMA - това е нов тип секторно софтуерно право, по което сега няма готови експерти, тъй като изисква знания освен в правото, само че и в технологиите.
Най-новите технологии във финансовия и обществения бранш да вземем за пример ще са композиция от блокчейн и изкуствен интелект (покупко-продажба на акции, транспортни билети, заплащане на налози, гласоподаване и др.). В доста страни от Европейски Съюз към този момент има правосъдна процедура за ръководство на принадлежности в блокчейн среда от изкуствен интелект. Знам, че това звучи шокиращо, само че в Англия, Франция, Италия и Швейцария такива каузи към този момент са факт.
Българският съд към момента не е чувал за тях. Националните съдилища мъчно се оправят даже с тривиални разногласия за марки, дизайни, авторски права и домейни, камо ли със комплицирани каузи за изкуствен интелект, от който доста съдии нямат визия.
Ясен Танев: Много добър въпрос, и тъкмо по този начин би трябвало да се мисли. Организациите би трябвало да познават регулаторната рамка в нейната целокупност, с цел да могат да вършат интегрирано внедряване, а не да гледат всеки акт поотделно.
Начинът, по който аз виждам връзката, е следният. Актът за Изкуствения разсъдък всъщност пази хората от други хора, които могат да злоупотребят с технологията. В същото време самият изкуствен интелект събира данни – освен от диалози, само че и от телеметрия, от устройства, от крайни потребителски детайли.
Когато изкуственият разсъдък събира данни от устройства и крайни потребителски устройства, тогава Актът за данните (Data Act) влиза директно в деяние. Когато изкуственият разсъдък работи върху крайни устройства и би трябвало да бъде приложим от хора с разнообразни дефицити, тогава към този момент навлизаме в Акта за досегаемост.
Когато изкуственият разсъдък е вграден в свързани устройства - термометри, умни коли, умни тв приемници, касови апарати и въобще устройства, които споделят между тях - тогава те би трябвало да дават отговор на условията за киберсигурност и на Акта за киберустойчивост.
Ако пък обработката на данни е обвързвана с модели, които се намират на сървъри, тогава към този момент влизаме във веригата на доставчиците на облачни услуги, което попада и в обсега на Директивата NIS2.
И когато приказваме съответно за Европейския правилник за цифрова оперативна резистентност (DORA), всеки участник във финансовия и застрахователния бранш, който употребява системи с изкуствен интелект за профилиране - и, не дай си Боже, взема решения за застраховки, компенсации или по различен метод въздейства върху живота, здравето и ориста на крайния субект - попада по едно и също време под действието на Акта за изкуствения разсъдък. А DORA, от своя страна, се интересува съответно от киберрисковете. Така че доставчиците на решения с изкуствен интелект също влизат в обсега.
И всичко това се подрежда в една смислена, обвързвана екосистема от регулации, стандарти за киберсигурност и правила за ръководство на данните. Това не са обособени части, а елементи от една обща логичност.
- Г-н Костов, Вие говорите за философията зад закона - за салдото сред индивида и машината. Смятате ли, че европейското право съумява да реализира този баланс, или има риск от несъразмерен надзор, който може да задуши нововъведенията?
Атанас Костов: Регламентът ясно слага индивида в центъра. Всички високорискови системи би трябвало да бъдат ръководени от хора, а не автоматизирано - това е главната философия на AI Act. Целта е да се подтиква нововъведението, като в същото време се пазят главните права.
Риск от задушаване на нововъведенията съществува - през днешния ден доста процеси в развойната активност, от медикаментите до автомобилостроенето и галактическите технологии, се правят в забележителна степен от изкуствен интелект. Но този риск е уравновесен, тъй като най-важно е наличието, което индивидът задава на системата.
От позиция на правото основаването на ясни правила за стартъпи, работещи с ИИ, както и минимални условия за нискорисковите системи, е задоволително, с цел да бъде постоянна нормативната рамка и да не се стигне до обстановка, в която технологията „ убива правото “.
Една от основните хрумвания на AI Act е индивидът да остане в центъра. Затова Регламентът вкарва условия за бистрота, оценка на риска, човешки контрол и отговорност.
Но дали салдото ще се резервира, зависи от правоприлагането и правосъдната процедура. Ако регулацията стане прекомерно тежка и несъответствуваща, рискът от недоумение от страна на съда е голям и може да задуши започващи планове. Затова е нужна експертност, еластичност и адаптивност от страна на правоприлагащите органи.
Дано съдиите стартират да се образоват в тази сфера. Днес сходна „ експертна преквалификация “ в българските съдилища отсъства изцяло. Ще го кажа непосредствено - българските съдии са софтуерно некомпетентни. Делата, свързани с изкуствен интелект, доста скоро ще се появят и в България, и тогава този минус ще има голям юридически резултат.
Защо съм толкоз сигурен? Днес българските нотариуси правят голям брой нарушавания на GDPR, като сформират протоколи за засвидетелствуване на обстоятелства онлайн без съблюдаване на условията за отбрана и предварителна защита. Съдът (ВАС и АССГ) към този момент е постановил няколко решения, които пазят явни нарушавания. След като има проблеми даже с разбирането на GDPR - относително елементарен акт - представете си какво ще стане с AI Act, където резултатите са доста по-тежки.
Познавам българската правосъдна система от първо лице, тъй като като юрист в областта на високите технологии всекидневно работя с нея.
- Регламентът в действителност слага индивида в центъра – „ технология в работа на обществото “. Как ще се подсигурява това на процедура - посредством контрол, сертификация, етични кодекси или правосъден надзор?
Ясен Танев: Човещината е първата и най-силна гаранция за човешки насочения изкуствен интелект в Европа. Но в случай че погледнем и регулаторната рамка, ще забележим, че тя е построена към рисково-базиран метод, при който рисковете не са дефинирани по отношение на машините или капитала, или ролята на Китайската комунистическа партия, а по отношение на въздействието върху индивида.
Дори при базовите модели - по този начин наречените генеративни модели за общо предопределение, които всички използваме всекидневно - се изисква регистрация за бистрота. Те би трябвало да подсигуряват, че моделите им не са дискриминационни или обременени с изкривявания. Това към този момент го видяхме ясно при съпоставяне на разнообразни модели - „ Дийпсийк “ (Deepseek), „ ЧатДжиПиТи “ (ChatGPT), „ Джемини “ (Gemini), „ Грок “ (Grok), европейския модел „ Мистрал “ (Mistral).
При високорисковите приложения логиката е още по-ясна. Ако система с изкуствен интелект взема решения, които могат директно да повлияят на индивида, тя наложително попада в режима на висок риск. Европа доста ясно е споделила: когато решение на машина може да засегне човешкия живот, права или орис, там би трябвало да има непоколебим надзор и човек в цикъла.
Атанас Костов: На процедура това ще се подсигурява посредством композиция от ограничения: сертификация на високорискови системи, човешки контрол, условия за бистрота, етични кодекси и опция за подаване на тъжби. Освен това Службата на Европейски Съюз за изкуствен интелект ще следи прецизно за използването на Регламента, в това число за точността на оценките и за спазването на правата на хората, като ще съблюдава и разпоредбите на Хартата на главните права.
AI Act планува многостепенен механизъм: основават се европейски и национални надзорни органи (вкл. нова конструкция на равнище ЕС), процедури за оценка на сходство и сертификация, изключително за високорискови системи, както и етични и механически стандарти.
Но този модел: „ контрол + сертификация + регулация + стандарти “, може да работи, единствено в случай че е подсилен от квалифицирани специалисти, транспарантни процедури и действителен административен потенциал. В противоположен случай рискуваме официални решения без на практика резултат.
- Кои са най-големите правни неясноти съгласно Вас при използването на регламента у нас - дефинициите, надзорните органи или механизмите за наказания? Или пък неналичието на задоволително квалифицирани специалисти?
Атанас Костов: Най-големите провокации ще бъдат свързани с ясното дефиниране на високорисковите системи, ефикасния контрол и използването на наказания. Липсата на квалифицирани специалисти също е сериозен фактор, защото оценката на ИИ системи изисква както юридически, по този начин и механически познания.
В този подтекст българското правоприлагане в бъдеще би трябвало да се оправи със следните проблеми, които през днешния ден не съществуват, само че доста скоро - безусловно на следващия ден, ще бъдат на дневен ред:
- Липса на ясни дефиниции и класификации: въпроси като по кое време една система е „ високорискова “, по кое време е просто „ инструмент “, по кое време би трябвало да се ползват строги условия. Регламентът дава нормативна рамка на тези понятия, само че те би трябвало да бъдат вярно дефинирани на експертно равнище, с цел да не се получи принуда над физическо лице или бизнеси, основани на непознаване на софтуерните действителности в детайли;
- Липса на национални подзаконови актове, които да приспособяват регламента към българския подтекст, което води до правна несигурност;
- Недостатъчен административен и механически потенциал: контрол, сертификация, надзор, оценка изискват запаси и компетентност;
- Липса на задоволително квалифицирани адвокати и механически експерти, които да схванат и ползват AI правото.
А ситуацията в органите за следствие е още по-тежко. Сектор „ Компютърни закононарушения “ към ГДБОП не разполага със експерти, които могат да проверяват закононарушения, осъществявани посредством изкуствен интелект. Разкриваемост няма. Жалбите завършват без следствие.
Фермите за компютърни измами по света работят точно посредством изкуствен интелект. Потърпевшите в България са десетки хиляди. Реакцията на прокуратурата и ГДБОП - нулева.
Казвам това като човек, който през последната година е подал десетки сигнали за блокчейн измами, осъществени посредством ИИ. Резултатът - нула.
Ясен Танев: Има неясноти, и те стартират още от преводите. Затова постоянно приканвам - четете актовете на британски, преди да започнете да ги прилагате на български.
Компетентните органи са избрани, само че процесът по тяхното действително овластяване и създаване на потенциал занапред следва. Самият развой по осъзнаване на техните отговорности в подтекста на характерните функции за пазарите или секторите, които те ще надзирават, е обвързван с създаване на компетентност.
Преди няколко дни отбелязахме три години от стартирането на „ ЧатДжиПиТи “. Това е доста къс интервал, в случай че погледнем какъв брой малко са хората, които действително имат пълномощия за оперативно ръководство на рисковете, свързани с изкуствения разсъдък. А точно тези хора са основни, с цел да може по-късно да се стигне до правоприлагане, до санкциониране или до навигиране на процесите.
Според мен компетентността на един орган не значи просто той да бъде „ разгласен “ или официално избран. Компетентният орган би трябвало да влага в ограмотяване на поднадзорните си единици и едвам откакто е провел целенасочени акции за образование, осветляване на задачите и обяснение на условията, тогава може да чака противоположна връзка за осъществяване. И чак по-късно – при липса на осъществяване – да постанова санкции. Това е развой, който занапред следва.
И това е в действителност скъпо, тъй като сега, в случай че приказваме за инспектори по ISO 42001 – стандарта за системи с изкуствен интелект – аз персонално познавам двама в България. Не съм сигурен какъв брой са общо в страната, евентуално към петима, тъй като това е извънредно нов стандарт и въобще нов метод на мислене. Дори измежду хората, които действително са изграждали системи с изкуствен интелект, евентуално единствено двама от петима в действителност схващат дълбочината на тематиката. Това единствено по себе си демонстрира какъв брой нова и комплицирана е тя.
И тъкмо по тази причина моето обръщение е следното: тази тематика не трябва да влиза със боязън. Тя би трябвало да бъде обяснявана, „ приземявана “ и правена използвана. Ако хората я възприемат като нещо нереално и заплашително, ще се стигне до блокаж, а не до развиване.
Големият късмет за България е точно тук. При състояние че към този момент имаме толкоз доста инфраструктура - построяват се гигафабрики, влагат се съществени средства, имаме и суперкомпютър в София Тех Парк, който продължава да се разраства - действителният недостиг не е в инфраструктурата. Реалният недостиг е в естествения разсъдък.
А естественият разсъдък не се основава с бетон и кабели. За него са нужни добра храна, хубаво време и добър климат - в необятния смисъл на думата. България е идеално място за развъждане на мозъци.
- България към момента няма профилиран Закон за изкуствения разсъдък, въпреки че има законопроект. Какви опасности носи това за фирмите, които към този момент употребяват AI решения?
Атанас Костов: Логиката сочи, че откакто се появи европейски правилник по дадена тематика, то навреме би трябвало да се създаде и национална правна рамка. По нея сега даже не се работи, тъй като специалисти по тематиката безусловно няма. Всичко това значи, че фирмите в България ще би трябвало да се придържат към европейския правилник, което пък от своя страна води до извода, че те ще би трябвало да внедрят механизми за оценка на риска и бистрота, даже при липса на народен закон.
Това може да усили административната тежест, като в един миг ще докара и до налагането на разнообразни типове наказания по Регламента за изкуствения разсъдък, без да е образувана национална рамка за положителни практики на експертно равнище.
Тази липса ще значи и че фирмите в България ще би трябвало да се ориентират единствено по европейските правила - без национални насоки, акомодации и административна поддръжка, като всичко това ще усили правната неустановеност и може да подтиква „ пренасяне “ на нововъведения към страни с по-добро регулаторно обслужване (като Румъния например), което няма да е нещо ново за нашата действителност.
Ние би трябвало да тръгнем от момента, в който Актът за изкуствения разсъдък минава през поднадзорните и способените органи. Именно те би трябвало първо да изградят личната си идея, да създадат скрининг на потребностите по браншове и да осмислят ролята си. Едва по-късно може да се приказва за консолидиране на национални детайли или допълващо законодателство.
Хубавото при Акта за изкуствения разсъдък е, че той е непосредствено използван. Тоест, рамката към този момент съществува. Спазва ли се? Смятам, че се подценява извънредно доста.
Ако ние сами не се грижим за киберсигурността си – тъй като не желаеме да бъдем „ мутирани “ цифрово и да се превърнем в част от бот мрежа, която нападна сериозна инфраструктура - тогава няма по какъв начин да чакаме някой различен да го направи вместо нас. Ако желаеме знанията ни да бъдат предпазени, а не разхвърляни по целия свят, и в случай че желаеме да изградим резистентен бизнес, ние би трябвало умишлено да създадем избор и оценка.
Този избор е елементарен, въпреки и неуместен: значимо ли е за мен да бъда цифрово и киберустойчиво дружество, или сега желая просто да изкарам бързи пари, без да ме интересува какво ще се случи на следващия ден, когато организацията ми се срине или когато данните ми изтекат - и по какъв начин това ще се отрази на хората, които работят при мен.
Това е въпрос както на бизнеса, по този начин и на страната, и той е фундаментален. В последна сметка изборът се свежда до едно: желая ли да оцелея, или не.
- Регламентът не разрешава системи за обществено кредитиране и прочувствено различаване. Смятате ли, че това е задоволителна отбрана на главните права на жителите, или ще има потребност от по-ясни подзаконови актове?
Атанас Костов: Тези забрани са добра първа стъпка, само че сигурно ще бъдат нужни подзаконови актове и механически стандарти, които да детайлизират по какъв начин се ползват рестриктивните мерки и по какъв начин се потвърждава сходството с правата на жителите. Предвидените забрани за неприемливи практики - като обществено кредитиране, операции, непрозрачно профилиране, биометрична идентификация - са значим детайл на отбрана. Но самите забрани не подсигуряват всичко - належащо е ясно дефинирани подзаконови актове, надзор, наказания и ефикасна процедура от съда и правоприлагащите органи(кои са те в България не излиза наяве, тъй като няма национална регламентация). Без тях възбраните могат да останат единствено официални.
- Как гледате на въпроса за отговорността при неточност на логаритъм – кой дава отговор, в случай че ИИ вземе погрешно решение в медицината, правото или администрацията?
Атанас Костов: Отговорността ще лежи върху разработчиците и доставчиците на високорисковите системи, като Регламентът планува ясни механизми за отчетност и документи. Човешкият контрол остава основен, тъй че институциите и експертите, които употребяват ИИ, също ще носят частична отговорност.
AI Act планува разпределена отговорност: производителят/доставчикът носи отговорност за сигурността и съответствието; операторът/ползвателят - за вярната употреба; а надзорните органи - за надзор и наказания. Тук ще попитам отново: кои са тези надзорни органи в България? До момента - към края на 2025, няма богата правосъдна процедура, тъй че действителната отговорност ще се оформя с първите правосъдни каузи. Това значи, че настоящият интервал е решителен: салдото сред отговорност, нововъведения и отбрана към момента се построява, уповавам се и по народен ред, само че не съм чул в България да се работи по народен закон по тематиката, създаване на административна рамка, санкциониращи органи и така нататък
- Г-н Костов, Вие изразявате увереност, че в бъдеще ИИ може да размени съдии, частни правосъдни реализатори и нотариуси. Това провокация ли е, или действителна вероятност? И какво би означавало това за правилото на човешкия контрол, заложен в закона?
Атанас Костов: Това е действителна вероятност, изключително за рутинни и логичен задания. Човешкият контрол ще се резервира като гаранция за правата на жителите, само че машините ще могат да правят примитивен разбор и да автоматизират процедурите, повишавайки успеваемостта на правораздаването и администрацията.
Повечето адвокатски адвокатски фирми и ЧСИ към този момент по един или различен метод вкараха работа с изкуствен интелект, като наблягам, че качеството на материала и дилемите, които са му заложени водят и до съответния позитивен или негативен материал. Като патентен юрист ще кажа и че изкуствения разсъдък навлезе доста и в областта на медицината( ранна диагностика), фармацията, създаването на медикаменти, изследователската и развойна активност при патентоването на машини и уреди и така нататък
- Според Вас ще се стигне ли до нужда от нова философия на правото - такава, която регистрира ролята на машината като юридически индивид? Ще се наложи ли юристите в България да развиват нова специализация - „ право на изкуствения разсъдък “ - по прилика с ИТ правото преди 15 години?
Атанас Костов: Определено. ИТ правото към този момент е одобрена компетентност в юридическите специалности, а с въвеждането на AI Act ще се наложи нова дисциплинираност - „ право на изкуствения разсъдък “. Както споделих и първоначално, юристите ще би трябвало да схващат освен законодателството, само че и действието на логаритмите на софтуерно равнище, с цел да обезпечат дейно правоприлагане. В множеството страни в съдилищата се основават профилирани сформира, които да натрупват процедура и познания тъкмо във високотехнологичния бранш, с цел да постановяват решения с презюмираната адекватност. Да се надяваме, че някой ден и българската правосъдна система ще узрее за тези положителни практики, вместо да се бори с заключения от вида: „ дали един домейн е комерсиална марка или не “? „ Борбата “ по тази тематика към момента продължава и не е явен отговорът.
- Какво бихте посъветвали българските компании и адвокати - по какъв начин да се приготвят за 2026 година, когато регламентът ще стартира да се ползва изцяло?
Атанас Костов: Съветът ми е да стартират подготовка още в този момент - да образоват експерти по право на изкуствения разсъдък, да внедрят механизми за оценка на рисковете от употребяваните системи в бизнеса, производството, обществената среда, да се научат да употребяват механизми за бистрота и софтуерен контрол, и да разработят вътрешни етични кодекси и екипи с хибридни компетентности онлайн, тъй като в доста от случаите точно индивидът употребява изкуствения разсъдък с незаконосъобразни цели. Тези стъпки ще обезпечат равномерен преход към новата правна действителност и ще понижат риска от наказания през днешния ден, когато по един или различен животът ни директно е опосреден от изкуствения разсъдък.
Ясен Танев: Това е едно от нещата, които откровено ме забавляват. Понеже на всички места се повтаря, че „ актът влиза в действие през август 2024 година “, всеобщо хората автоматизирано си поставят две години напред и споделят: август 2026 година И си мислят, че до тогава имат време (Актът влиза в действие през август 2024 година с публикуването му в Официалния вестник на Европейския съюз. Посочваният двугодишен период произтича от общото предписание за използване на по-голямата част от отговорностите по регламента. Основните условия към бизнеса и обществената администрация, в това число тези за високорисковите системи с изкуствен интелект, стартират да се ползват 24 месеца след влизането му в действие - бел. ред.). Само че има една съответна дата, за която съвсем никой не приказва – 2 август 2025 година Именно на 2 август 2025 г
Източник: bta.bg
КОМЕНТАРИ




