Regulamentul european privind inteligența artificială (AI Act) a intrat oficial în vigoare și aduce obligații concrete pentru toate companiile din România care dezvoltă, distribuie, integrează sau utilizează sisteme AI. Nu mai e vorba de recomandări — e legislație cu termene fixe și amenzi de până la 35 de milioane de euro.
În acest articol analizez ce înseamnă AI Act pentru companiile din România, cu focus pe industria turismului și pe obligațiile unui TMC (Travel Management Company).
Ce este AI Act și de ce contează pentru România?
AI Act este primul cadru legislativ din lume care reglementează inteligența artificială pe baza nivelului de risc. Se aplică tuturor companiilor care operează pe piața UE — inclusiv celor din România, indiferent de dimensiune.
Regulamentul clasifică sistemele AI în patru categorii de risc:
Risc inacceptabil — interzise complet (manipulare subliminală, social scoring, recunoaștere facială neautorizată)
Risc ridicat — permise cu obligații stricte (recrutare AI, scorare credite, evaluare angajați)
Risc limitat — obligații de transparență (chatboți, deepfakes)
Risc minim — fără obligații suplimentare (filtre spam, jocuri AI)
Calendarul obligațiilor: termene clare
Implementarea AI Act nu se face peste noapte. Există un calendar precis pe care fiecare companie trebuie să-l cunoască:
2 februarie 2025 — Interzicerea sistemelor AI cu risc inacceptabil. Din această dată, nicio companie din România nu mai poate utiliza AI pentru manipulare subliminală, evaluare socială (social scoring), recunoaștere facială pentru crearea de baze de date neautorizate sau exploatarea vulnerabilităților anumitor grupuri de persoane.
2 august 2025 — Obligații pentru modelele AI de uz general (GPAI). Furnizorii de modele generative și LLM-uri trebuie să asigure transparența (documentație, date de antrenare, costuri computaționale, consum energetic) și să respecte drepturile de autor.
2 august 2026 — Intră în vigoare majoritatea obligațiilor, inclusiv cele pentru sistemele AI cu risc ridicat și obligațiile de alfabetizare AI.
2 august 2027 — Termen final pentru conformitatea completă a tuturor sistemelor AI cu risc ridicat.
Obligația de alfabetizare AI: nu e opțională
Articolul 4 din AI Act impune tuturor organizațiilor să asigure un nivel adecvat de competențe AI pentru personalul implicat în operarea sau utilizarea sistemelor de inteligență artificială.
Ce înseamnă concret:
Nu e suficient să trimiți un email cu instrucțiuni. Biroul European pentru Inteligență Artificială a clarificat explicit: simpla lectură a unor documente scrise nu constituie alfabetizare AI.
Trebuie un proces de învățare activă și documentată — training-uri, workshop-uri, evaluări de competențe.
Se aplică tuturor angajaților care interacționează cu AI, nu doar echipei IT.
Trebuie documentat — cine a fost instruit, când, ce competențe au fost acoperite.
Pentru un TMC, asta înseamnă că agenții de travel care folosesc chatboți AI, travel managerii care folosesc dashboarduri cu AI analytics, și echipele IT care integrează API-uri AI — toți trebuie instruiți formal.
Auditul intern: identificarea și clasificarea sistemelor AI
Fiecare companie trebuie să realizeze un audit intern pentru a identifica toate sistemele AI pe care le folosește. Multe companii vor fi surprinse de câte sisteme AI au deja în operare:
Chatboți de suport clienți (ChatGPT, Dialogflow, etc.)
Asistenți virtuali pentru rezervări
Sisteme de recomandare (hoteluri, zboruri, pachete)
Instrumente de analiză predictivă pentru pricing
Sisteme de recrutare și evaluare CV-uri
Instrumente de marketing automation cu componente AI
Platforme de BI cu funcții de machine learning
Fiecare sistem trebuie clasificat pe nivelul de risc corespunzător și documentat.
Obligații în funcție de rolul companiei
Dezvoltatorii (Furnizorii)
Firmele românești care creează modele proprii de AI trebuie să:
Asigure transparența completă — documentație, date de antrenare, costuri computaționale, consum energetic
Respecte drepturile de autor în procesul de antrenare
Gestioneze riscurile de securitate cibernetică
Marcheze clar conținutul generat de AI
Integratorii
Companiile IT care integrează modele externe (ChatGPT API, Claude API, LLaMA) în aplicațiile proprii sunt obligate să:
Verifice conformitatea furnizorului cu AI Act
Documenteze utilizarea modelelor externe
Informeze utilizatorii finali cu privire la limitările sistemului
Mențină un registru al integrărilor AI
Utilizatorii (Deployerii)
Firmele din retail, bănci, sănătate, telecom sau turism care folosesc AI trebuie să:
Evalueze impactul și riscurile asupra datelor personale
Respecte cerințele GDPR în combinație cu AI Act
Asigure dreptul la explicație pentru persoanele afectate de decizii AI
Cerințe stricte pentru sistemele AI cu risc ridicat
Dacă o companie folosește AI pentru procese care afectează direct persoanele, obligațiile devin semnificativ mai stricte:
Testare pentru corectitudine și non-discriminare — Sistemul AI trebuie testat riguros pentru bias-uri înainte de utilizarea în mediul real. Un AI de recrutare care discriminează pe criterii de gen sau vârstă expune compania la amenzi masive.
Supraveghere umană (human-in-the-loop) — Operatorii trebuie să poată verifica, înțelege, corecta sau anula deciziile luate de AI. Nicio decizie care afectează o persoană nu poate fi complet automatizată fără supraveghere umană.
Transparență față de persoanele vizate — Angajații sau candidații trebuie informați explicit că sunt evaluați de un AI, trebuie să li se explice cum influențează AI-ul decizia finală și trebuie să aibă dreptul la explicație și contestare.
Monitorizare continuă — Log-uri complete și un plan documentat pentru gestionarea riscurilor în caz de erori sau discriminări.
Impactul AI Act asupra turismului românesc și a TMC-urilor
Industria turismului din România este un utilizator semnificativ de AI, chiar dacă multe companii nu realizează acest lucru. Un TMC modern folosește zilnic:
Chatboți pentru suport clienți — clasificare: risc limitat → obligație de transparență. Clientul trebuie informat că interacționează cu un AI.
Sisteme de recomandare pentru rezervări — clasificare: risc minim spre limitat → documentare și transparență.
AI pentru analiza datelor de travel — clasificare: risc minim → fără obligații suplimentare, dar bune practici recomandate.
Sisteme de recrutare cu AI (dacă se folosesc) — clasificare: risc ridicat → obligații complete de testare, transparență, supraveghere umană.
Pricing dinamic bazat pe AI — clasificare: risc limitat → transparență față de consumatori.
Pentru un TMC ca Weco-Travel, unde am implementat automatizări end-to-end, chatboți Dialogflow și dashboarduri BI, impactul este direct:
1. Chatboții de suport trebuie să informeze clar utilizatorul că interacționează cu un AI
2. Sistemele de import automat (ca TINAimporter) care procesează date trebuie documentate și auditate
3. Dashboardurile BI care folosesc componente de machine learning trebuie clasificate și documentate
4. Toți angajații care interacționează cu aceste sisteme trebuie instruiți formal
Actualizarea politicilor interne
AI Act nu înlocuiește GDPR — îl completează. Companiile au obligația să:
Actualizeze regulamentele interne pentru a reflecta utilizarea AI
Stabilească proceduri de control și audit
Desemneze un responsabil AI (recomandat, nu obligatoriu — dar o decizie inteligentă)
Documenteze toate procesele care implică AI
Sancțiuni: amenzi care nu pot fi ignorate
Nerespectarea AI Act expune companiile la amenzi semnificative:
Până la 35 milioane EUR sau 7% din cifra de afaceri anuală globală — pentru utilizarea de practici interzise
Până la 15 milioane EUR sau 3% din cifra de afaceri — pentru încălcarea obligațiilor legate de sistemele cu risc ridicat
Până la 7,5 milioane EUR sau 1,5% din cifra de afaceri — pentru furnizarea de informații incorecte
Concluzie personală
Responsabilizarea părților este întotdeauna binevenită. După ani de lipsa de reguli clare si legislatie în implementarea AI, unde oricine putea să arunce un model într-un proces de business fără nicio responsabilitate, AI Act vine cu un cadru necesar.
Nu văd acest regulament ca pe o povară — îl văd ca pe o oportunitate. Companiile care se conformează primele vor avea un avantaj competitiv real: încrederea clienților, a angajaților și a partenerilor.
Din experiența mea în travel tech, cele mai bune automatizări au fost întotdeauna cele în care omul rămâne în control. Human-in-the-loop nu e o restricție — e bun simț ingineresc. Un AI care ia decizii fără supraveghere nu e inovator, e iresponsabil.
Termenele sunt clare, obligațiile sunt concrete, iar amenzile sunt suficient de mari încât să nu poată fi ignorate. Sfatul meu: nu așteptați deadline-urile. Începeți auditul intern acum, investiți în alfabetizarea echipei și documentați tot. E mai ușor să construiești conformitate de la început decât să o adaugi după.