СТЪЛБ · УПРАВЛЕНИЕ

AI Управление (Governance)

AI без governance е регулаторен и репутационен риск. Изграждаме политиките, надзора и контрола на риска, които се мащабират заедно с използването на AI — съобразени с европейския регулаторен контекст, а не пренаписани от американски рамки.

30 дни
до пълен AI risk register
100%
политики, съобразени с EU AI Act
0
изненади при одит
EU AI Act хронология
2024 — 2027
  • Aug 2024
    EU AI Act влиза в сила
  • Feb 2025
    Забрана на забранените AI практики
  • Aug 2025
    GPAI задължения + органи за надзор
  • Aug 2026
    Правилата за високорискови AI системи
  • Aug 2027
    Annex II продукти — пълно покритие

Готови ли сте за следващия краен срок?

Защо governance — сега

AI без governance е регулаторен и репутационен риск, който не виждате — докато не стане късно.

EU AI Act вече е в сила. Българските и европейските компании, които са внедрили генеративен AI, AI агенти или решения, базирани на модели, се нуждаят от политики, надзор и контрол на риска, които издържат при одит. Инструментите са лесната част — governance отделя съобразената AI дейност от отговорност на ниво борд.

€35M / 7%
Максимална глоба по EU AI Act — по-голямото от приходи или фиксиран таван
Авг 2026
Правилата за високорискови AI системи стават приложими
73%
От европейските компании с AI в продукция все още нямат формална AI политика
Какво доставяме

Цялостна AI governance програма — не PDF с политики

Не продаваме шаблони. Влизаме в екипа ви, картографираме AI системите, класифицираме по риск и стартираме политики, контроли и надзорна практика, които наистина работят.

Картографиране и класификация по EU AI Act

Пълен инвентар на всяка AI система — вътрешна, доставчик, вградена — класифицирана по рисков клас (забранена, висок, ограничен, минимален).

Шаблони за AI политики

Политика за използване, политика за доставчици, политика за генеративен AI, политика за риск от модели. На два езика (EN/BG), съобразени с България и ЕС, готови за внедряване.

AI risk register и model lineage

Единен източник на истина за всеки модел, prompt, набор от данни и решение — одитируем, заявяем, постоянно актуализиран.

Преглед на prompt injection и локалност на данните

Практически одити на сигурността по OWASP LLM Top 10 + анализ на локалност на данните в ЕС и припокриване с GDPR.

AI надзор на ниво борд

Тримесечна практика с KPI дашборди, отчети за инциденти и оценка на бъдещи рискове за изпълнителния ви екип.

Fractional AI Governance партньор

Действаме като ваш външен Head of AI Governance — отговаряме за политиките, register-а, оценката на доставчици и борд-практиката на fractional базис.

EU AI Act буквар

Защо има значение — и колко струва да го пренебрегнете

EU AI Act (Регламент 2024/1689) е първият цялостен закон за AI в света. Прилага рамка, базирана на риска: колкото по-голямо е въздействието на AI системата, толкова по-строги са задълженията. Българските компании попадат в обхвата веднага щом пускат AI на пазара в ЕС, използват AI в операциите си или вземат AI решения, засягащи граждани на ЕС — включително готови инструменти като ChatGPT, използвани в продукция.

Съответствието не е по избор. Националните органи (КЗЛД в България) получават правомощия за прилагане от август 2026 за високорискови системи. Компании без подходящ governance се сблъскват с принудителни мерки, ограничения за пазарен достъп и репутационни щети, които ескалират бързо в B2B продажбени цикли, където проверки за съответствие вече са стандартен етап на procurement.

Глоби при нарушения

EU AI Act · Art. 99
€35M / 7%
Използване на забранени AI практики
По-голямото от фиксиран таван или глобален годишен оборот
€15M / 3%
Нарушения на задълженията за високорисков AI
Включва липса на risk register, надзор или прозрачност
€7.5M / 1.5%
Подаване на неверна информация към органите
Включва непълна документация при одит
Забранени
В сила от Февр 2025

Изцяло забранени — социално оценяване, биометрична идентификация в реално време на публични места, манипулативен AI, разпознаване на емоции на работното място и в училищата.

Високорискови
В сила от Авг 2026

AI в HR, оценка на кредитоспособност, образование, критична инфраструктура, правоохранителни органи, медицински устройства. Изисква риск мениджмънт, governance на данни, прозрачност, човешки надзор, пост-маркетингов мониторинг и оценка на съответствието (CE-style).

Ограничен риск
В сила от Авг 2026

Чатботове, deepfakes, разпознаване на емоции извън работно място. Задължения за прозрачност — потребителите трябва да знаят, че взаимодействат с AI; AI-генерирано съдържание трябва да е маркирано.

Минимален риск
Без специфични задължения

Спам филтри, AI в игри, препоръчителни системи без чувствително въздействие. Само доброволни кодекси за поведение.

Повечето български компании имат поне една високорискова или ограничено-рискова система в AI footprint-а си — и още не го знаят. Превръщаме регулацията в нещо оперативно: risk register, политики, които екипът ви наистина ще следва, и тримесечна борд-практика, която държи ръководството информирано и готово за одит.

Как работим

От одит до постоянен надзор

Първи измерими резултати в рамките на 30 дни. Пълна борд-практика — за 60. След това ние водим програмата — или я предаваме обратно на екипа ви.

01
Седмица 1–2

AI инвентар и рискова класификация

Картографираме всяка AI система — вътрешни разработки, доставчически инструменти, вградени функции — и я класифицираме по EU AI Act рисков клас.

  • Пълен AI инвентар
  • Доклад за рискова класификация
  • Анализ на разликите спрямо EU AI Act
02
Седмица 3–4

Набор от политики и risk register

Доставяме политиките, AI risk register и оценките на доставчиците — съобразени с бизнеса ви, прегледани с правен и инженерен екип.

  • AI usage + vendor + GenAI политики
  • AI risk register с контроли
  • Top-10 оценки на доставчици
03
Седмица 5–8

Надзорна практика и обучения

Стартираме тримесечната борд-практика, обучаваме изпълнителни лица и мениджъри и провеждаме първия преглед с ръководството.

  • AI дашборд за борда
  • Обучение на изпълнителния екип
  • Първи тримесечен AI преглед
04
Постоянно

Fractional governance партньор (по избор)

Действаме като ваш външен Head of AI Governance — водим тримесечните прегледи, актуализираме risk register, оценяваме нови доставчици, отговаряме на одити.

  • Тримесечни борд-прегледи
  • Постоянно обновяване на risk register
  • Поддръжка при одит и инциденти
Резултати

С какво излизате от другия край

Конкретни артефакти и работеща надзорна практика — не 200-странична презентация, която няма да отворите отново.

100%
В съответствие с EU AI Act
Политики, контроли и класификация, съответстващи на регулацията
30 дни
До пълен AI risk register
Единен източник на истина за всеки модел и решение
0
Изненади при одит
Документирани контроли, доказателства при поискване
ЧЗВ

AI Управление — често задавани въпроси

Какво е AI управление (governance)?
AI governance е съвкупността от политики, процеси и надзор, които гарантират, че AI системите се внедряват безопасно, законосъобразно и ефективно. Покрива политики за използване на AI, управление на риска от модели, оценка на доставчици, локалност на данните, надзор на ниво борд и готовност за одит — особено по EU AI Act и GDPR.
Как EU AI Act се прилага за моята българска компания?
EU AI Act се прилага за всяка българска компания, която разработва, внедрява или разпространява AI системи в ЕС — включително използване на инструменти като ChatGPT в продукция. Задълженията зависят от рисковия клас. Картографираме AI footprint-а ви, класифицираме системите, изграждаме политики и подготвяме за одити.
Нужна ли е AI политика, ако екипът ми използва само ChatGPT?
Да. Дори потребителското използване на AI създава рискове: изтичане на данни към трети страни, непроследени решения, непоследователно качество и „сенчест AI“. Опростена политика за използване + лек governance (оценка на доставчици, класификация на данни, обучение) е правилната отправна точка.
Каква е разликата между AI governance и AI security?
AI security се фокусира върху технически защити — prompt injection, изтичане на модели, отравяне на данни. AI governance е по-широк: политики, надзор, управление на риска, избор на доставчици, одит и човешката/организационната страна. Има припокриване, но нужни са и двете.
Как се настройва AI надзор на ниво борд?
Дефинирайте тримесечен AI преглед с три артефакта: актуализация на risk register, KPI дашборд (внедрявания, инциденти, разходи) и доклад за бъдещи рискове и възможности. Изграждаме това като готов ангажимент и можем да водим практиката като ваш fractional governance партньор.
Колко време отнема внедряване на AI governance?
Първи измерими артефакти (набор от политики, risk register, класификационен доклад) — в рамките на 30 дни. Пълна борд-практика — за 60 дни. След това fractional governance месец за месец.
Колко струва AI governance?
Първоначалните ангажименти обикновено стартират в четирицифрен евро диапазон и мащабират според размера на компанията и AI footprint. Fractional governance се таксува месечно. Предлагаме безплатен 30-минутен преглед, преди да дадем оферта.
Може ли encorp.ai да бъде наш външен AI governance партньор?
Да. Нашият fractional ангажимент ни прави де-факто Head of AI Governance за вашата компания — отговаряме за политиките, register-а, оценката на доставчиците и тримесечната борд-практика. Особено подходящо за български и европейски компании, които още не са на мащаб за пълно работно време.

Поставете AI риска под контрол за 30 дни.

Запазете безплатен 30-минутен AI governance преглед. Картографираме AI footprint-а ви, идентифицираме топ 3 риска и препоръчваме отправна точка — без обвързване.

Без търговски натиск · Безплатна 30-мин консултация · На два езика (EN/BG)