...
PRIDOBI PONUDBO
Notice the elephant white logoPRIDOBI PONUDBO
14 julija, 2025

Zakon EU o umetni inteligenci bo v naslednjem desetletju vplival na vaše marketinške odločitve

Zakon EU o umetni inteligenci ni le še en zakonodajni akt. Je črta v pesku. Za tržnike, vodje avtomatizacije in poslovne stratege je to predpis, ki bo v naslednjih desetih letih določal, katera orodja lahko uporabljate, kako jih uporabljate in kakšna tveganja nosijo vaši sistemi.

Zakono umetni inteligenci EU , ki bo sprejet leta 2024 in je delno že v veljavi, uvaja prvi zavezujoči pravni okvir za umetno inteligenco na svetu. Njegov vpliv? Globalni. Vsako podjetje, ki uporablja umetno inteligenco in vpliva na ljudi v Evropski uniji, spada na njegovo področje uporabe, ne glede na to, kje ima sedež.

Strokovnjaki temu pravijo bruseljski učinek. Regionalni zakon postane globalno merilo, ker je trg prevelik, da bi ga prezrli. Če vaša programska oprema personalizira vsebino, avtomatizira oblikovanje cen ali uporablja klepetalne robote za spodbujanje konverzije, je EU pravkar dobila vpliv na vaše delovanje.

Za razliko od uredbe GDPR, ki se je osredotočala na zasebnost, se zakon EU o umetni inteligenci ukvarja z oblikovanjem in uporabo umetne inteligence. Sisteme razvršča glede na tveganje, popolnoma prepoveduje škodljive primere uporabe ter določa stroge zahteve glede preglednosti in nadzora. Kazni so visoke, vendar so motnje v delovanju še večje, če boste predolgo čakali.

Ekipe za trženje in avtomatizacijo si ne morejo privoščiti, da bi odvrnile pogled.

Kaj je zakon EU o umetni inteligenci? In zakaj je tako močan?

Zakon EU o umetni inteligenci je uradno znan kot Uredba (EU) 2024/1689 in ,je prvi tovrstni zakon ki ustvarja pravno zavezujoča pravila za razvoj, uvajanje in uporabo umetne inteligence v celotnem gospodarskem bloku.

Zakon ne velja le za podjetja v EU. Velja za vse organizacije, katerih sistemi umetne inteligence vplivajo na ljudi v EU, ne glede na to, ali se ti sistemi uporabljajo za trženje, zaposlovanje, ocenjevanje kreditov ali storitve za stranke. Če vaš klepetalni robot govori s francosko stranko ali če vaš oglaševalski algoritem profilira nekoga v Nemčiji, ste zajeti. To je bruseljski učinek v praksi.

Temelji na zaupanju, varnosti in človekovih pravicah

Jedro zakona EU o umetni inteligenci je v nadzoru in odgovornosti. Njegovi cilji so spodbujati zaupanja vredno umetno inteligenco, zaščititi temeljne pravice ter zagotoviti varnost in preglednost pri uporabi inteligentnih sistemov. To ni le okvir skladnosti. To je izjava: UI mora služiti ljudem in ne obratno.

Uredba postavlja ostro mejo med primeri uporabe, ki dajejo moč, in tistimi, ki manipulirajo. Sistemi, ki izkoriščajo ranljivosti uporabnikov, zavajajo z lažno vsebino ali socialno ocenjujejo posameznike, so izključeni. Orodja, ki pomagajo, vendar ostanejo pregledna in poštena, so v uporabi, z jasnimi pravili.

En zakon, štiri stopnje tveganja

Zakon uvaja štiristopenjski model tveganja, da bi razjasnil raznovrstnost orodij umetne inteligence, ki so na voljo:

  • Prepovedana umetna inteligenca: sistemi, ki manipulirajo z uporabniki, izkoriščajo ranljivosti ali uporabljajo socialno ocenjevanje. Ti so popolnoma prepovedani.
  • UI z visokim tveganjem: Vključuje orodja, ki se uporabljajo pri zaposlovanju, ocenjevanju kreditov, izobraževanju, zavarovalništvu in drugih sektorjih, kjer lahko napake resno vplivajo na življenja. Ta orodja zahtevajo strogo upravljanje, dokumentacijo in človeški nadzor.
  • UI z omejenim tveganjem: Zajema običajna trženjska orodja, kot so klepetalni boti, točkovanje vodilnih strank in generatorji vsebin. Ta morajo izpolnjevati zahteve glede preglednosti, kot je obveščanje uporabnikov o interakciji z umetno inteligenco ali označevanje sintetičnih vsebin.
  • UI z minimalnim tveganjem: vključuje večino orodij za analizo učinkovitosti, testiranje A/B in filtre za neželeno pošto. Zanje zakon ne predvideva dodatnih obveznosti
EU dirketiva Ai kategroije tveganja

Če napačno določite stopnjo tveganja, plačajte ceno

Napačna razvrstitev vašega sistema ali popolna ignoranca postopka razvrščanja je lahko draga. Zakon za najhujše kršitve uvaja finančne kazni v višini do 35 milijonov EUR ali 7 % svetovnega letnega prometa, kar je višje.

Na kocki pa je več kot le denar. Zaradi napačnih korakov lahko umaknete izdelke, ustavite ključne poslovne procese ali povzročite dolgoročno škodo ugledu. Zato pametna podjetja že revidirajo svoje portfelje umetne inteligence in preoblikujejo delovne procese, da bi jih uskladila s temi stopnjami tveganja.

Nato si bomo ogledali, kaj to dejansko pomeni za trženje - kajti da, tudi klepetalni roboti in vsebinska orodja so zdaj pod regulativnim nadzorom. In vsi primeri uporabe niso obravnavani enako.

Umetna inteligenca v trženju je zdaj regulirana

Tržniki že leta uporabljajo umetno inteligenco za ciljno usmerjanje, personalizacijo in razširjanje kampanj hitreje kot kdaj koli prej. Toda z uveljavitvijo zakona EU o umetni inteligenci so ta orodja pod pravnim drobnogledom. Nekoč sivo območje je zdaj razdeljeno na dovoljeno, omejeno in popolnoma prepovedano.

Manipulacija, izkoriščanje in zavajanje so prepovedani

Zakon EU o umetni inteligenci prepoveduje vsak sistem umetne inteligence, ki manipulira z vedenjem ljudi na način, ki povzroča škodo, zlasti če je namenjen ranljivim skupinam, kot so otroci ali invalidi. To vključuje sisteme, namenjene izkoriščanju psiholoških vzorcev, ustvarjanju sintetičnih vplivnežev brez razkritja ali vsiljevanju odločitev prek zavajajočih vmesnikov. Zakon (Uredba (EU) št. 2024/1689) .prepoveduje tudi sisteme socialnega točkovanja in prepoznavanje čustev v realnem času v javnem okolju

Če uporabljate umetno inteligenco za spodbujanje vedenja, morate biti prepričani, da vam daje moč - in ne prisiljuje.

Visoko tveganje: ko se trženje sreča z občutljivimi okoliščinami

Nekatere aplikacije trženja niso prepovedane, vendar so razvrščene med aplikacije z visokim tveganjem. Mednje spadajo sistemi, ki se uporabljajo za določanje dostopa do kreditov ali zavarovanja, orodja, ki se uporabljajo pri zaposlovanju ali ocenjevanju zaposlenih, in algoritmi, ki podpirajo politično mikrotarigiranje. V teh primerih se trženje prekriva z družbenim vplivom, zakon pa od razvijalcev in izvajalcev zahteva izpolnjevanje strogih pogojev: podrobno dokumentacijo, človeški nadzor, testiranje točnosti in jasen rezervni postopek v primeru, da sistem odpove.

Če vaš trženjski niz podpira finančne storitve, zdravstveno varstvo, izobraževanje ali državljansko udejstvovanje, to ni teoretično tveganje. Morda se že nahajate na reguliranem območju.

Omejeno tveganje: kam spada večina orodij za trženje

Večina umetne inteligence v trženju, ki je namenjena strankam, spada v kategorijo omejenega tveganja. To vključuje:

  • klepetalnike, ki se uporabljajo za storitve za stranke ali usmerjanje izdelkov
  • orodja za ustvarjanje vsebin, ki ustvarjajo besedila oglasov, naslove ali opise izdelkov
  • orodja za prilagajanje, ki prilagajajo spletne izkušnje ali tokove e-pošte

Ta orodja so še vedno dovoljena, vendar so zdaj povezana z zahtevami po preglednosti. Če uporabnik komunicira z umetno inteligenco in ne s človekom, mora biti o tem obveščen. Če je vsebino ustvaril sistem in ne človek, jo je treba ustrezno označiti. Če teh informacij ne razkrijete, vas lahko zakon o umetni inteligenci kaznuje, tudi če je sama vsebina neškodljiva.

Preglednost ni več neobvezna

Preglednost pri trženju z umetno inteligenco ni le najboljša praksa, temveč tudi zakonska zahteva. Zakon EU o umetni inteligenci zavezuje podjetja, da zagotovijo jasna razkritja, razumljiva pojasnila in smiselne načine, kako se lahko uporabniki odjavijo ali izpodbijajo avtomatizirane odločitve.

V praksi to pomeni:

  • oznake, ki označujejo, kdaj je vsebino ali komunikacijo ustvarila umetna inteligenca.
  • Obvestila, ko uporabniki komunicirajo s sistemi, ki niso človeški
  • Enostavno dostopne informacije o tem, kako sistem umetne inteligence deluje in katere podatke uporablja

Cilj teh pravil je povrniti zaupanje. Če uporabniki ne razumejo, kako je vaš sistem prišel do zaključka, ali če se počutijo zavedeni, so lahko pravne posledice hude.

Še vedno velja raven GDPR

Tudi če je vaš sistem skladen z zakonom EU o umetni inteligenci, vas to ne odvezuje obveznosti GDPR. Pravzaprav se oba okvira precej prekrivata, ko gre za profiliranje, obdelavo podatkov in privolitev.

Če na primer vaš mehanizem za personalizacijo temelji na vedenjskih podatkih, v skladu z uredbo GDPR še vedno potrebujete izrecno soglasje. Če sprejema odločitve o cenah ali upravičenosti, lahko za te odločitve prav tako veljajo pravice do pojasnil v skladu z obema zakonoma.

Najvarnejši pristop je, da vsako stično točko s strankami, ki jo poganja umetna inteligenca, obravnavate kot dvojno regulirano. Opredelite tveganja v skladu z zakonom EU o umetni inteligenci - nato preverite, ali vaše prakse ravnanja s podatki ustrezajo tudi uredbi GDPR.

Avtomatizacija poslovanja pod drobnogledom

Zakon EU o umetni inteligenci ne ureja le bleščečih marketinških orodij ali javno dostopnih klepetalnih robotov. Gre globlje in se osredotoča na infrastrukturo, ki poganja poslovne dejavnosti. Če vaše podjetje uporablja umetno inteligenco za sprejemanje notranjih odločitev - o zaposlovanju, nadomestilih, kreditnem tveganju ali nadzoru procesov -, je ta avtomatizacija zdaj pod strogim nadzorom.

Sistemi z visokim tveganjem v vsakdanjem poslovanju

Več kategorij poslovne avtomatizacije spada v kategorijo sistemov z visokim tveganjem. Mednje spadajo:

  • kadrovska tehnologija, ki se uporablja za preverjanje, ocenjevanje ali spremljanje zaposlenih
  • orodja za finančno avtomatizacijo, ki ocenjujejo kreditno sposobnost, cene ali terjatve
  • sistemi kritične infrastrukture, ki nadzorujejo logistiko, energijo, prevoz ali bistvene storitve

Ti sistemi morajo izpolnjevati stroge standarde skladnosti. To vključuje testiranje pred uvedbo, oceno tveganja in vzdrževanje podrobne tehnične dokumentacije, v kateri je opisano, kako je bila umetna inteligenca zgrajena, usposobljena in potrjena (Uredba (EU) 2024/1689).

Dokumentacija in človeški nadzor sta obvezna

Če vaša UI avtomatizira odločitve, ki bistveno vplivajo na ljudi ali storitve, morate biti sposobni dokazati, kako deluje. To pomeni, da je treba ustvariti:

  • tehnično dokumentacijo, ki spremlja podatke o usposabljanju, metrike in obnašanje sistema
  • revizijske sledi, ki prikazujejo, kdaj in kako so bile sprejete odločitve
  • dokaze, da lahko človek kadar koli posreduje, prekliče ali ustavi sistem

Zakon EU o umetni inteligenci jasno določa: avtomatizacija brez odgovornosti ni več sprejemljiva. Od podjetij se pričakuje, da bodo človeški nadzor vključila neposredno v zasnovo sistema - ne le kot varovalko, temveč kot standardni del delovanja.

Skladnost z zakonom EU o umetni inteligenci je stalna, ne enkratna

V nasprotju z drugimi regulativnimi kontrolnimi seznami je v zakonu EU o umetni inteligenci skladnost opredeljena kot neprekinjen proces. Sisteme, ki so bili skladni ob uvedbi, bo morda treba ponovno oceniti, ko se bodo razvijali ali ko se bodo pojavila nova tveganja. Od podjetij se pričakuje, da redno spremljajo, poročajo in ponovno preverjajo svoje sisteme. Če posodobitev spremeni delovanje vašega modela ali uvede nove zmogljivosti, boste morda morali predložiti posodobljeno dokumentacijo ali opraviti novo ugotavljanje skladnosti.

UI za splošne namene in veriga odgovornosti

Zakon uvaja tudi obveznosti za podjetja, ki v svoje avtomatizirane sklope gradijo ali vključujejo sisteme umetne inteligence za splošne namene (GPAI) - kot so temeljni modeli ali predhodno usposobljeni motorji. Če za sprejemanje odločitev uporabljate orodje umetne inteligence tretje osebe, ste soodgovorni za njegovo delovanje, tveganja in preglednost.

Z drugimi besedami, krivde ne morete preprosto prenesti na svojega prodajalca.

Razumeti morate, kako je bil model usposobljen, katere podatke uporablja in ali je skladen s standardi zakona. Če ga natančno prilagodite ali uporabite v okolju z visokim tveganjem, se vaše obveznosti še povečajo.

Za podjetja, ki uporabljajo umetno inteligenco za racionalizacijo poslovanja, je ta sprememba pomembna. Skladnost ni povezana le z orodji, ki jih gradite, temveč tudi z orodji, ki jih kupujete, prilagajate in povezujete s podatki o strankah.

Kako je dejansko videti skladnost (spoiler: drago je)

Zakon EU o umetni inteligenci ne pomeni, da je treba prilagoditi nekaj pravilnikov o zasebnosti. Podjetja prisili, da vzpostavijo trajno notranjo infrastrukturo za odgovornost. Skladnost zajema dokumentacijo, strukturo ekipe, upravljanje prodajalcev in vsakodnevno delovanje - in če vaše podjetje uporablja umetno inteligenco v okoljih z visokim ali omejenim tveganjem, to ne bo poceni ali hitro.

EU AI direktiva
EU AI direktiva

Tehnična dokumentacija, ocene skladnosti, revizije prodajalcev

Vsak sistem UI z visokim tveganjem mora biti podprt z obsežno tehnično dokumentacijo. Ta vključuje splošni opis sistema, predvideni namen, metrike delovanja, postopke testiranja, vire podatkov, arhitekturo modela in strategije za zmanjševanje tveganja. To dokumentacijo je treba posodabljati v celotnem življenjskem ciklu sistema umetne inteligence (člen 11).

Pred uvedbo mora sistem opraviti oceno skladnosti - bodisi z notranjimi pregledi bodisi, za številne primere uporabe z visokim tveganjem, prek priglašenega organa tretje osebe. Če se zanašate na zunanje razvijalce, so obvezne tudi revizije prodajalcev, kar pomeni, da vaše ekipe za javna naročila zdaj od vsakega partnerja na področju umetne inteligence potrebujejo pravno ustrezno dokumentacijo (člen 43).

Zahtevane skupine za upravljanje in okviri za obvladovanje tveganj

Skladnost ni le papirnata. Gre za upravljanje. Podjetja morajo ustvariti notranje okvire za upravljanje tveganj UI od razvoja do spremljanja po dajanju na trg. To vključuje postopke za razvrščanje sistemov UI, izvajanje ocen tveganja, zagotavljanje človeškega nadzora ter redno pregledovanje dnevnikov in incidentov (9. člen, 61. člen).

Za operacionalizacijo teh delovnih postopkov morajo biti vzpostavljene medfunkcijske skupine za upravljanje. Pravne, podatkovne in inženirske ekipe morajo biti vključene že zgodaj - ne le med končnim pregledom.

Primerjalna merila stroškov skladnosti (dejanske številke za MSP in podjetja)

Komisija v lastni analizi ocenjuje, da povprečni stroški skladnosti za visoko tvegane sisteme umetne inteligence znašajo med 100 000 in 400 000 EUR na sistem, odvisno od kompleksnosti (priloge k oceni učinka). Za MSP to lahko predstavlja 30-40 % pričakovanega dobička od posameznega izdelka.

Tudi letni stroški ne izginejo. Tekoče upravljanje tveganj, spremljanje, dokumentiranje in poročanje o upravljanju znašajo pri večini ponudnikov z visokim tveganjem v povprečju od 38 000 do 85 000 EUR na leto.

To niso špekulacije. Ti stroški so zdaj del proračunskih napovedi in modelov tveganja vlagateljev za podjetja, ki poslujejo v EU ali prodajajo v EU.

Direktiva EU o umetni inteligenci

Opredelite in razvrstite vsako stično točko umetne inteligence

Pred vsem drugim se skladnost začne z revizijo. Podjetja morajo kartirati vsak sistem umetne inteligence, ki ga uporabljajo - v stiku s strankami ali znotraj podjetja - in vsakega razvrstiti na podlagi štiristopenjskega okvira tveganja iz zakona.

To pomeni, da je treba slediti:

  • kaj sistem počne
  • katere podatke uporablja
  • kdo ga uporablja in za koga
  • kakšen vpliv ima na pravice ali varnost ljudi.

Orodja, kot so klepetalni roboti, motorji za personalizacijo, modeli za ocenjevanje vodilnih strank in avtomatizirani generatorji vsebin, zahtevajo razvrstitev. Mnoga od njih spadajo v kategorijo omejenega tveganja, ki pa je še vedno povezana s pravili o preglednosti.

Ustvarite medfunkcijske delovne tokove s pravnimi in tehničnimi službami

Ker se umetna inteligenca dotika tako tehničnih kot etičnih področij, skladnost ne more biti ločena. Podjetja morajo vzpostaviti nove delovne tokove, ki vključujejo:

  • pravne ekipe (za razlago predpisov)
  • inženirji (za izvajanje in dokumentacijo)
  • ekipe UX in produktne ekipe (za preglednost in razkritja).
  • vodje za tveganja in revizijo (za pregled in eskalacijo)

Te delovne tokove je treba kodificirati v vsakodnevne dejavnosti - vključno s sprožilci, ki v primeru spremembe, preusposabljanja ali spremembe namembnosti sistema zahtevajo pregled skladnosti.

Oblikovanje za preglednost, ne le za pravni pregled

Preglednost je ena od najbolj vidnih zakonskih obveznosti. Zakon EU o umetni inteligenci od podjetij zahteva, da jasno obveščajo uporabnike, ko ti komunicirajo z umetno inteligenco, in jim razumljivo pojasnjujejo avtomatizirane odločitve (člen 52).

Vendar pa zakon sega dlje od razkritij v potrditvenih okencih. Pojasnila morajo biti "jasna, jedrnata in razumljiva". To pomeni, da pravne ekipe ne pišejo samo pogojev o zasebnosti - oblikovalci UX morajo sodelovati, da zagotovijo, da so ti pogoji dejansko vidni, prebrani in razumljivi.

Če je vaša preglednost odvisna od drobnega tiska, niste skladni.

Uskladite orodja in prodajalce

Kupujete ali integrirate zunanja orodja umetne inteligence? Tveganje se prenese na vas.

Od prodajalcev morate zahtevati, da zagotovijo dokumentacijo o:

  • razvrstitvi tveganja
  • tehničnih specifikacijah
  • virih podatkov
  • metodah človeškega nadzora
  • mehanizmih preglednosti in pravnih sredstvih

Če prodajalec ne more dokazati skladnosti ali vam ne more povedati, od kod prihajajo njegovi podatki, ogrožate celotno poslovanje.

Vprašanja, ki jih zastavite vsakemu prodajalcu:

  • Ali za ta sistem velja Zakon EU o umetni inteligenci?
  • V katero stopnjo tveganja spada?
  • Kateri mehanizmi človeškega pregleda so vključeni?
  • Ali lahko zagotovite dokumentacijo, pripravljeno za revizijo?

Če je odgovor "ne vemo", odidite.

Usposabljanje ekipe za opismenjevanje na področju umetne inteligence

Pismenost na področju umetne inteligence ni več konkurenčna prednost. Je zakonska zahteva. Vaša ekipa - v vseh oddelkih - mora razumeti, kaj zahteva Zakon EU o umetni inteligenci in kako se njihova vloga vključuje v to sliko.

Vodje izdelkov morajo vedeti, katere funkcije sprožijo obveznosti glede preglednosti. Razvijalci morajo vedeti, kako izvajati nadzor nad tveganji. Pravne ekipe morajo tekoče poznati sklicevanja na člene, podpora strankam pa mora biti pripravljena končnim uporabnikom razložiti izhode UI.

Usposabljanje ni enkratna delavnica. Vključiti ga je treba v uvajanje, ga okrepiti z osvežitvami in prilagoditi glede na razvoj zakonodaje. Podjetja, ki bodo usposabljanje obravnavala kot premislek, bodo zaostajala - ali pa bodo kaznovana.

Etika kot valuta blagovne znamke v dobi umetne inteligence

Zakon EU o umetni inteligenci določa pravne meje, vendar bo etika določala, katera podjetja bodo uspela v novem gospodarstvu umetne inteligence. Ko bodo predpisi v delovne procese izdelkov vsilili preglednost, poštenost in odgovornost, bodo izstopala podjetja, ki bodo ta načela obravnavala kot strateške prednosti - in ne kot obveznosti.

Skladnost je zdaj osnovno izhodišče. Stranke, regulatorji in partnerji pričakujejo več kot le spoštovanje zakonodaje. Želijo vedeti, da vaša orodja umetne inteligence spoštujejo uporabnike, se izogibajo pristranskosti in nudijo možnost pritožbe. To ni samo vprašanje B2C. Pri prodaji v podjetjih, vladnih naročilih in reguliranih sektorjih, kot sta finance in zdravstvo, postaja etično upravljanje umetne inteligence merilo za izbor. Če vaš sistem ne more pojasniti, kako deluje ali kdo ga nadzoruje, se morda sploh ne boste uvrstili v ožji izbor.

Napredne blagovne znamke že sprejemajo ta premik. Preglednost vključujejo v UX, objavljajo izjave o pojasnjevanju, usposabljajo medfunkcijske ekipe o tveganjih AI in predstavljajo svoje notranje okvire nadzora. To niso le PR poteze, temveč tudi konkurenčni signali.

Dobro izvedena etična umetna inteligenca postane vzvod rasti. Pritegne stranke, pomiri vlagatelje, poenostavi revizije in zagotovi delovanje v prihodnosti. Zakon EU o umetni inteligenci je morda prisilil k pogovoru, vendar pravo zmago prinašajo podjetja, ki ga vodijo.

Deli objavo
Preberi tudi
VSE OBJAVE >>

Zaupajo nam odlična podjetja

Pravilnik o zasebnostiPravilnik o piškotkihStran v angleščini