Изкуствен интелект и ГДПР: Какво трябва да знае всеки бизнес в България през 2026 г.
Използването на изкуствен интелект (AI) в бизнеса расте с бързи темпове — от чатботове и автоматизирани системи за обслужване на клиенти до алгоритми за кредитен скоринг и подбор на персонал. Но всяка AI система, която обработва лични данни, попада под разпоредбите на ГДПР. С влизането в сила на AI Act и предложените промени в рамките на Цифровия омнибус, 2026 г. е повратна точка за всяка компания, използваща AI технологии.
В нашата практика забелязваме, че много български бизнеси вече използват AI инструменти, без да са наясно с правните рискове. В тази статия нашият екип обобщава ключовите правни изисквания, практическите стъпки за съответствие и конкретните рискове, свързани с AI и защитата на личните данни.
Какво е AI Act и защо е важен за бизнеса в България
Регламентът за изкуствения интелект (Регламент (ЕС) 2024/1689), известен като AI Act, е първият в света цялостен закон за регулиране на AI. Той въвежда рисково-базиран подход, като категоризира AI системите в четири нива:
- Забранени практики — социален скоринг, емоционално разпознаване на работното място, биометрична категоризация по чувствителни характеристики
- Високорискови системи — подбор на персонал, кредитна оценка, здравеопазване
- Системи с ограничен риск — чатботове, deepfakes (изискват прозрачност)
- Системи с минимален риск — повечето AI приложения (без специални изисквания)
От февруари 2025 г. вече са в сила забраните за неприемливо рискови AI системи. Изискванията за високорисковите AI системи ще се прилагат от декември 2027 г. след удължаването на сроковете чрез Цифровия омнибус.
Важно
AI Act действа паралелно с ГДПР. Когато AI система обработва лични данни, двата регламента се прилагат кумулативно. Бизнесите трябва да осигурят съответствие и с двата набора от правила.
Как ГДПР се прилага при AI модели
Становище 28/2024 на Европейския комитет по защита на данните (ЕКЗД), прието на 17 декември 2024 г., дава ключови насоки за прилагането на ГДПР при AI модели. Становището адресира три основни аспекта.
Анонимност на AI модели
Не всеки AI модел, обучен с лични данни, автоматично „съдържа" лични данни. ЕКЗД приема, че анонимността трябва да се оценява за всеки конкретен случай. За да се счита за анонимен, вероятността от извличане на лични данни — директно или чрез запитвания — трябва да е незначителна. На практика компаниите трябва да документират техническите мерки, предприети за осигуряване на анонимност.
Легитимен интерес като правно основание
ЕКЗД потвърди, че легитимният интерес по чл. 6, §1, б. „е" от ГДПР е допустимо правно основание за обработване на лични данни при разработка и внедряване на AI модели. Необходим е обаче тристепенен тест:
- Идентифициране на легитимен интерес
- Доказване, че обработването е необходимо за постигането му
- Баланс между интереса на контрольора и правата на субектите на данни
Конкретни примери, дадени от ЕКЗД, включват разговорни агенти (чатботове) за обслужване на клиенти и AI за киберсигурност.
Последици при незаконосъобразно обработване
Ако лични данни са били обработени незаконосъобразно във фазата на обучение на AI модел, това може да засегне и законосъобразността на последващото внедряване. Надзорните органи могат да наредят:
- Глоби по ГДПР
- Временни ограничения на обработването
- Изтриване на данните от тренировъчния набор
- Премахване на самия модел
Единственият начин за „изчистване" на ситуацията е доказана анонимизация на модела.
Цифровият омнибус: Предстоящи промени в ГДПР
На 19 ноември 2025 г. Европейската комисия публикува пакета Цифров омнибус — мащабно предложение за изменение на множество цифрови закони, включително ГДПР. Предложението е в процес на обсъждане.
Ключовите предложения, засягащи AI и лични данни, включват:
- Нов „относителен" подход — данни, които конкретен контрольор не може да свърже с физическо лице, не се считат за лични за него
- Изрична правна основа за обработване на лични данни за обучение на AI модели чрез легитимен интерес
- Обработване на специални категории данни (здравни, етнически и др.) за целите на откриване и коригиране на дискриминация в AI системи
Позиция на ЕКЗД и ЕНОЗД
Съвместното становище от 11 февруари 2026 г. категорично се противопоставя на промените в дефиницията за лични данни, като отбелязва, че те противоречат на практиката на Съда на ЕС и значително стесняват приложното поле на ГДПР.
Практически стъпки: ГДПР одит за AI системи
Независимо от развитието на законодателството, всеки бизнес, използващ AI, трябва да предприеме конкретни стъпки. Нашият екип препоръчва следния подход:
1. Инвентаризация на AI системите
Изгответе пълен списък на всички AI инструменти, които вашият бизнес използва — включително чатботове, системи за автоматизация на маркетинга, AI-базирани CRM решения и инструменти за анализ на данни. За всяка система определете дали обработва лични данни.
2. Оценка на въздействието (DPIA)
Съгласно чл. 35 от ГДПР, когато обработването (включително чрез AI) може да доведе до висок риск за правата на физическите лица, е задължително извършване на DPIA. Това е особено важно при профилиране, автоматизирано вземане на решения или обработване на чувствителни данни.
3. Определяне на правно основание
За всяка AI система, обработваща лични данни, определете правното основание по чл. 6 от ГДПР. Ако разчитате на легитимен интерес, документирайте тристепенния тест.
4. Прозрачност и информиране
Чл. 13 и 14 от ГДПР изискват субектите на данни да бъдат информирани за обработването, включително за автоматизираното вземане на решения. AI Act допълнително изисква потребителите да бъдат уведомени, когато взаимодействат с AI система.
5. Договори с доставчици
Ако използвате AI като услуга (например облачен AI модел), е необходим договор за обработка на лични данни по чл. 28 от ГДПР с доставчика. Уверете се, че договорът покрива и изискванията на AI Act за разпределение на отговорностите между доставчик (provider) и потребител (deployer).
КЗЛД и AI: Какво да очакваме в България
С избирането на новия състав на КЗЛД през май 2025 г. предстои определянето на стратегическите приоритети на националния надзорен орган. Според AI Act всяка държава-членка трябва да определи национален компетентен орган за надзор на AI системите. Все още не е ясно дали тази роля ще бъде поверена на КЗЛД или на друга институция.
Практиката на КЗЛД показва активна позиция по отношение на санкциите — българският надзорен орган е наложил глоби за над 3,2 млн. евро от въвеждането на ГДПР, включително значимата санкция от 1 000 000 лв. на Банка ДСК за нарушение на мерките за сигурност. С навлизането на AI технологиите е вероятно да видим нови проверки и санкции.
Рискове и глоби: Какво да знаете
Санкционният режим при нарушения, свързани с AI и лични данни, е многопластов:
- ГДПР: до 20 млн. евро или 4% от глобалния оборот
- AI Act (забранени практики): до 35 млн. евро или 7% от оборота
- AI Act (други нарушения): до 15 млн. евро или 3% от оборота
- ЗЗЛД (национален закон): до 10 000 лв. за физически лица и до 100 000 лв. за юридически лица за по-леки нарушения
За тежки нарушения се прилагат директно санкциите по чл. 83 от ГДПР.
Често задавани въпроси
Как AI Act засяга моя бизнес в България?
AI Act засяга всеки бизнес, който разработва или използва AI системи на територията на ЕС. Ако вашият бизнес използва AI за подбор на персонал, кредитна оценка, здравни услуги или биометрична идентификация, това попада в категорията „високорискови AI системи" и трябва да отговаря на строги изисквания за прозрачност, документация и човешки надзор.
Мога ли да използвам ChatGPT и други AI инструменти без да нарушавам ГДПР?
Да, при условие че сте предприели необходимите мерки: определили сте правно основание за обработването; информирали сте субектите на данни; сключили сте подходящ договор с доставчика; и не въвеждате лични данни на трети лица без основание. При бизнес използване е препоръчително да използвате версиите с договор за обработка (Enterprise/Business планове).
Какво е DPIA и кога е задължителна при AI?
Оценката на въздействието (DPIA) е задължителна съгласно чл. 35 от ГДПР, когато обработването може да доведе до висок риск за правата на физическите лица. При AI това включва: систематично профилиране; автоматизирано вземане на решения с правно или значително въздействие; мащабно обработване на чувствителни данни; или използване на нови технологии.
Трябва ли съгласие за обработка на лични данни от AI?
Не непременно. Съгласието е само едно от шестте правни основания по чл. 6 от ГДПР. За AI модели легитимният интерес е най-често използваното основание, но изисква документиран тристепенен тест. Важно е да знаете, че съгласието при AI трябва да бъде информирано, конкретно и свободно дадено — което на практика е трудно постижимо при мащабно обучение на модели.
Какви глоби може да наложи КЗЛД за AI нарушения?
КЗЛД може да наложи глоби по ГДПР до 20 млн. евро или 4% от годишния оборот за тежки нарушения. С AI Act ще се добавят и допълнителни санкции. В България най-честите глоби за нарушения на ГДПР варират от 5 000 до 100 000 лв., но за системни или тежки нарушения могат да бъдат значително по-високи.
Какво е високорискова AI система?
Според AI Act високорисковите AI системи са тези, използвани в области като: биометрична идентификация; управление на критична инфраструктура; образование и професионално обучение; заетост и управление на работници; достъп до основни публични и частни услуги (вкл. кредитен скоринг); правоприлагане; миграция и управление на границите; и правосъдие.
Как да защитя правата си, ако AI вземе решение за мен?
Чл. 22 от ГДПР дава право да не бъдете обект на решение, основано единствено на автоматизирано обработване, включително профилиране, което произвежда правни последици за вас. Можете да поискате човешка намеса, да изразите своята гледна точка и да оспорите решението. При нарушение можете да подадете жалба до КЗЛД.
Нуждаете се от ГДПР одит за вашите AI системи?
В Димитрова, Чолаков и партньори / Innovires помагаме на бизнеси в България да постигнат пълно съответствие с ГДПР и AI Act.
- ГДПР одит с фокус върху AI и автоматизирани системи
- Изготвяне на DPIA за високорискови AI системи
- Преглед и изготвяне на договори с AI доставчици
- Представителство пред КЗЛД при проверки и жалби
- Консултации за привеждане в съответствие с AI Act
Получавайте нови статии директно в пощата си
Практически анализи по GDPR и киберсигурност. Без спам.
Можете да се отпишете по всяко време. Политика за поверителност