AI Act România: Obligații, termene și impact în turism | Marian Matinca

By Marian Matinca |

Regulamentul european privind inteligența artificială (AI Act) a intrat oficial în vigoare și aduce obligații concrete pentru toate companiile din România care dezvoltă, distribuie, integrează sau utilizează sisteme AI. Nu mai e vorba de recomandări — e legislație cu termene fixe și amenzi de până la 35 de milioane de euro. În acest articol analizez ce înseamnă AI Act pentru companiile din România, cu focus pe industria turismului și pe obligațiile unui TMC (Travel Management Company).

Ce este AI Act și de ce contează pentru România?

AI Act este primul cadru legislativ din lume care reglementează inteligența artificială pe baza nivelului de risc. Se aplică tuturor companiilor care operează pe piața UE — inclusiv celor din România, indiferent de dimensiune. Regulamentul clasifică sistemele AI în patru categorii de risc:
  • Risc inacceptabil — interzise complet (manipulare subliminală, social scoring, recunoaștere facială neautorizată)
  • Risc ridicat — permise cu obligații stricte (recrutare AI, scorare credite, evaluare angajați)
  • Risc limitat — obligații de transparență (chatboți, deepfakes)
  • Risc minim — fără obligații suplimentare (filtre spam, jocuri AI)
  • Calendarul obligațiilor: termene clare

    Implementarea AI Act nu se face peste noapte. Există un calendar precis pe care fiecare companie trebuie să-l cunoască: 2 februarie 2025 — Interzicerea sistemelor AI cu risc inacceptabil. Din această dată, nicio companie din România nu mai poate utiliza AI pentru manipulare subliminală, evaluare socială (social scoring), recunoaștere facială pentru crearea de baze de date neautorizate sau exploatarea vulnerabilităților anumitor grupuri de persoane. 2 august 2025 — Obligații pentru modelele AI de uz general (GPAI). Furnizorii de modele generative și LLM-uri trebuie să asigure transparența (documentație, date de antrenare, costuri computaționale, consum energetic) și să respecte drepturile de autor. 2 august 2026 — Intră în vigoare majoritatea obligațiilor, inclusiv cele pentru sistemele AI cu risc ridicat și obligațiile de alfabetizare AI. 2 august 2027 — Termen final pentru conformitatea completă a tuturor sistemelor AI cu risc ridicat.

    Obligația de alfabetizare AI: nu e opțională

    Articolul 4 din AI Act impune tuturor organizațiilor să asigure un nivel adecvat de competențe AI pentru personalul implicat în operarea sau utilizarea sistemelor de inteligență artificială. Ce înseamnă concret:
  • Nu e suficient să trimiți un email cu instrucțiuni. Biroul European pentru Inteligență Artificială a clarificat explicit: simpla lectură a unor documente scrise nu constituie alfabetizare AI.
  • Trebuie un proces de învățare activă și documentată — training-uri, workshop-uri, evaluări de competențe.
  • Se aplică tuturor angajaților care interacționează cu AI, nu doar echipei IT.
  • Trebuie documentat — cine a fost instruit, când, ce competențe au fost acoperite.
  • Pentru un TMC, asta înseamnă că agenții de travel care folosesc chatboți AI, travel managerii care folosesc dashboarduri cu AI analytics, și echipele IT care integrează API-uri AI — toți trebuie instruiți formal.

    Auditul intern: identificarea și clasificarea sistemelor AI

    Fiecare companie trebuie să realizeze un audit intern pentru a identifica toate sistemele AI pe care le folosește. Multe companii vor fi surprinse de câte sisteme AI au deja în operare:
  • Chatboți de suport clienți (ChatGPT, Dialogflow, etc.)
  • Asistenți virtuali pentru rezervări
  • Sisteme de recomandare (hoteluri, zboruri, pachete)
  • Instrumente de analiză predictivă pentru pricing
  • Sisteme de recrutare și evaluare CV-uri
  • Instrumente de marketing automation cu componente AI
  • Platforme de BI cu funcții de machine learning
  • Fiecare sistem trebuie clasificat pe nivelul de risc corespunzător și documentat.

    Obligații în funcție de rolul companiei

    Dezvoltatorii (Furnizorii)

    Firmele românești care creează modele proprii de AI trebuie să:
  • Asigure transparența completă — documentație, date de antrenare, costuri computaționale, consum energetic
  • Respecte drepturile de autor în procesul de antrenare
  • Gestioneze riscurile de securitate cibernetică
  • Marcheze clar conținutul generat de AI
  • Integratorii

    Companiile IT care integrează modele externe (ChatGPT API, Claude API, LLaMA) în aplicațiile proprii sunt obligate să:
  • Verifice conformitatea furnizorului cu AI Act
  • Documenteze utilizarea modelelor externe
  • Informeze utilizatorii finali cu privire la limitările sistemului
  • Mențină un registru al integrărilor AI
  • Utilizatorii (Deployerii)

    Firmele din retail, bănci, sănătate, telecom sau turism care folosesc AI trebuie să:
  • Evalueze impactul și riscurile asupra datelor personale
  • Respecte cerințele GDPR în combinație cu AI Act
  • Asigure dreptul la explicație pentru persoanele afectate de decizii AI
  • Cerințe stricte pentru sistemele AI cu risc ridicat

    Dacă o companie folosește AI pentru procese care afectează direct persoanele, obligațiile devin semnificativ mai stricte: Testare pentru corectitudine și non-discriminare — Sistemul AI trebuie testat riguros pentru bias-uri înainte de utilizarea în mediul real. Un AI de recrutare care discriminează pe criterii de gen sau vârstă expune compania la amenzi masive. Supraveghere umană (human-in-the-loop) — Operatorii trebuie să poată verifica, înțelege, corecta sau anula deciziile luate de AI. Nicio decizie care afectează o persoană nu poate fi complet automatizată fără supraveghere umană. Transparență față de persoanele vizate — Angajații sau candidații trebuie informați explicit că sunt evaluați de un AI, trebuie să li se explice cum influențează AI-ul decizia finală și trebuie să aibă dreptul la explicație și contestare. Monitorizare continuă — Log-uri complete și un plan documentat pentru gestionarea riscurilor în caz de erori sau discriminări.

    Impactul AI Act asupra turismului românesc și a TMC-urilor

    Industria turismului din România este un utilizator semnificativ de AI, chiar dacă multe companii nu realizează acest lucru. Un TMC modern folosește zilnic:
  • Chatboți pentru suport clienți — clasificare: risc limitat → obligație de transparență. Clientul trebuie informat că interacționează cu un AI.
  • Sisteme de recomandare pentru rezervări — clasificare: risc minim spre limitat → documentare și transparență.
  • AI pentru analiza datelor de travel — clasificare: risc minim → fără obligații suplimentare, dar bune practici recomandate.
  • Sisteme de recrutare cu AI (dacă se folosesc) — clasificare: risc ridicat → obligații complete de testare, transparență, supraveghere umană.
  • Pricing dinamic bazat pe AI — clasificare: risc limitat → transparență față de consumatori.
  • Pentru un TMC ca Weco-Travel, unde am implementat automatizări end-to-end, chatboți Dialogflow și dashboarduri BI, impactul este direct: 1. Chatboții de suport trebuie să informeze clar utilizatorul că interacționează cu un AI 2. Sistemele de import automat (ca TINAimporter) care procesează date trebuie documentate și auditate 3. Dashboardurile BI care folosesc componente de machine learning trebuie clasificate și documentate 4. Toți angajații care interacționează cu aceste sisteme trebuie instruiți formal

    Actualizarea politicilor interne

    AI Act nu înlocuiește GDPR — îl completează. Companiile au obligația să:
  • Actualizeze regulamentele interne pentru a reflecta utilizarea AI
  • Stabilească proceduri de control și audit
  • Desemneze un responsabil AI (recomandat, nu obligatoriu — dar o decizie inteligentă)
  • Documenteze toate procesele care implică AI
  • Sancțiuni: amenzi care nu pot fi ignorate

    Nerespectarea AI Act expune companiile la amenzi semnificative:
  • Până la 35 milioane EUR sau 7% din cifra de afaceri anuală globală — pentru utilizarea de practici interzise
  • Până la 15 milioane EUR sau 3% din cifra de afaceri — pentru încălcarea obligațiilor legate de sistemele cu risc ridicat
  • Până la 7,5 milioane EUR sau 1,5% din cifra de afaceri — pentru furnizarea de informații incorecte
  • Concluzie personală

    Responsabilizarea părților este întotdeauna binevenită. După ani de lipsa de reguli clare si legislatie în implementarea AI, unde oricine putea să arunce un model într-un proces de business fără nicio responsabilitate, AI Act vine cu un cadru necesar. Nu văd acest regulament ca pe o povară — îl văd ca pe o oportunitate. Companiile care se conformează primele vor avea un avantaj competitiv real: încrederea clienților, a angajaților și a partenerilor. Din experiența mea în travel tech, cele mai bune automatizări au fost întotdeauna cele în care omul rămâne în control. Human-in-the-loop nu e o restricție — e bun simț ingineresc. Un AI care ia decizii fără supraveghere nu e inovator, e iresponsabil. Termenele sunt clare, obligațiile sunt concrete, iar amenzile sunt suficient de mari încât să nu poată fi ignorate. Sfatul meu: nu așteptați deadline-urile. Începeți auditul intern acum, investiți în alfabetizarea echipei și documentați tot. E mai ușor să construiești conformitate de la început decât să o adaugi după.

    Proiect asociat

    Alte articole