Zakon EU o umetni inteligenci ni le še en zakonodajni akt. Je črta v pesku. Za tržnike, vodje avtomatizacije in poslovne stratege je to predpis, ki bo v naslednjih desetih letih določal, katera orodja lahko uporabljate, kako jih uporabljate in kakšna tveganja nosijo vaši sistemi.
Zakono umetni inteligenci EU , ki bo sprejet leta 2024 in je delno že v veljavi, uvaja prvi zavezujoči pravni okvir za umetno inteligenco na svetu. Njegov vpliv? Globalni. Vsako podjetje, ki uporablja umetno inteligenco in vpliva na ljudi v Evropski uniji, spada na njegovo področje uporabe, ne glede na to, kje ima sedež.
Strokovnjaki temu pravijo bruseljski učinek. Regionalni zakon postane globalno merilo, ker je trg prevelik, da bi ga prezrli. Če vaša programska oprema personalizira vsebino, avtomatizira oblikovanje cen ali uporablja klepetalne robote za spodbujanje konverzije, je EU pravkar dobila vpliv na vaše delovanje.
Za razliko od uredbe GDPR, ki se je osredotočala na zasebnost, se zakon EU o umetni inteligenci ukvarja z oblikovanjem in uporabo umetne inteligence. Sisteme razvršča glede na tveganje, popolnoma prepoveduje škodljive primere uporabe ter določa stroge zahteve glede preglednosti in nadzora. Kazni so visoke, vendar so motnje v delovanju še večje, če boste predolgo čakali.
Ekipe za trženje in avtomatizacijo si ne morejo privoščiti, da bi odvrnile pogled.
Zakon EU o umetni inteligenci je uradno znan kot Uredba (EU) 2024/1689 in ,je prvi tovrstni zakon ki ustvarja pravno zavezujoča pravila za razvoj, uvajanje in uporabo umetne inteligence v celotnem gospodarskem bloku.
Zakon ne velja le za podjetja v EU. Velja za vse organizacije, katerih sistemi umetne inteligence vplivajo na ljudi v EU, ne glede na to, ali se ti sistemi uporabljajo za trženje, zaposlovanje, ocenjevanje kreditov ali storitve za stranke. Če vaš klepetalni robot govori s francosko stranko ali če vaš oglaševalski algoritem profilira nekoga v Nemčiji, ste zajeti. To je bruseljski učinek v praksi.
Jedro zakona EU o umetni inteligenci je v nadzoru in odgovornosti. Njegovi cilji so spodbujati zaupanja vredno umetno inteligenco, zaščititi temeljne pravice ter zagotoviti varnost in preglednost pri uporabi inteligentnih sistemov. To ni le okvir skladnosti. To je izjava: UI mora služiti ljudem in ne obratno.
Uredba postavlja ostro mejo med primeri uporabe, ki dajejo moč, in tistimi, ki manipulirajo. Sistemi, ki izkoriščajo ranljivosti uporabnikov, zavajajo z lažno vsebino ali socialno ocenjujejo posameznike, so izključeni. Orodja, ki pomagajo, vendar ostanejo pregledna in poštena, so v uporabi, z jasnimi pravili.
Zakon uvaja štiristopenjski model tveganja, da bi razjasnil raznovrstnost orodij umetne inteligence, ki so na voljo:

Napačna razvrstitev vašega sistema ali popolna ignoranca postopka razvrščanja je lahko draga. Zakon za najhujše kršitve uvaja finančne kazni v višini do 35 milijonov EUR ali 7 % svetovnega letnega prometa, kar je višje.
Na kocki pa je več kot le denar. Zaradi napačnih korakov lahko umaknete izdelke, ustavite ključne poslovne procese ali povzročite dolgoročno škodo ugledu. Zato pametna podjetja že revidirajo svoje portfelje umetne inteligence in preoblikujejo delovne procese, da bi jih uskladila s temi stopnjami tveganja.
Nato si bomo ogledali, kaj to dejansko pomeni za trženje - kajti da, tudi klepetalni roboti in vsebinska orodja so zdaj pod regulativnim nadzorom. In vsi primeri uporabe niso obravnavani enako.
Tržniki že leta uporabljajo umetno inteligenco za ciljno usmerjanje, personalizacijo in razširjanje kampanj hitreje kot kdaj koli prej. Toda z uveljavitvijo zakona EU o umetni inteligenci so ta orodja pod pravnim drobnogledom. Nekoč sivo območje je zdaj razdeljeno na dovoljeno, omejeno in popolnoma prepovedano.
Zakon EU o umetni inteligenci prepoveduje vsak sistem umetne inteligence, ki manipulira z vedenjem ljudi na način, ki povzroča škodo, zlasti če je namenjen ranljivim skupinam, kot so otroci ali invalidi. To vključuje sisteme, namenjene izkoriščanju psiholoških vzorcev, ustvarjanju sintetičnih vplivnežev brez razkritja ali vsiljevanju odločitev prek zavajajočih vmesnikov. Zakon (Uredba (EU) št. 2024/1689) .prepoveduje tudi sisteme socialnega točkovanja in prepoznavanje čustev v realnem času v javnem okolju
Če uporabljate umetno inteligenco za spodbujanje vedenja, morate biti prepričani, da vam daje moč - in ne prisiljuje.
Nekatere aplikacije trženja niso prepovedane, vendar so razvrščene med aplikacije z visokim tveganjem. Mednje spadajo sistemi, ki se uporabljajo za določanje dostopa do kreditov ali zavarovanja, orodja, ki se uporabljajo pri zaposlovanju ali ocenjevanju zaposlenih, in algoritmi, ki podpirajo politično mikrotarigiranje. V teh primerih se trženje prekriva z družbenim vplivom, zakon pa od razvijalcev in izvajalcev zahteva izpolnjevanje strogih pogojev: podrobno dokumentacijo, človeški nadzor, testiranje točnosti in jasen rezervni postopek v primeru, da sistem odpove.
Če vaš trženjski niz podpira finančne storitve, zdravstveno varstvo, izobraževanje ali državljansko udejstvovanje, to ni teoretično tveganje. Morda se že nahajate na reguliranem območju.
Večina umetne inteligence v trženju, ki je namenjena strankam, spada v kategorijo omejenega tveganja. To vključuje:
Ta orodja so še vedno dovoljena, vendar so zdaj povezana z zahtevami po preglednosti. Če uporabnik komunicira z umetno inteligenco in ne s človekom, mora biti o tem obveščen. Če je vsebino ustvaril sistem in ne človek, jo je treba ustrezno označiti. Če teh informacij ne razkrijete, vas lahko zakon o umetni inteligenci kaznuje, tudi če je sama vsebina neškodljiva.
Preglednost pri trženju z umetno inteligenco ni le najboljša praksa, temveč tudi zakonska zahteva. Zakon EU o umetni inteligenci zavezuje podjetja, da zagotovijo jasna razkritja, razumljiva pojasnila in smiselne načine, kako se lahko uporabniki odjavijo ali izpodbijajo avtomatizirane odločitve.
V praksi to pomeni:
Cilj teh pravil je povrniti zaupanje. Če uporabniki ne razumejo, kako je vaš sistem prišel do zaključka, ali če se počutijo zavedeni, so lahko pravne posledice hude.
Tudi če je vaš sistem skladen z zakonom EU o umetni inteligenci, vas to ne odvezuje obveznosti GDPR. Pravzaprav se oba okvira precej prekrivata, ko gre za profiliranje, obdelavo podatkov in privolitev.
Če na primer vaš mehanizem za personalizacijo temelji na vedenjskih podatkih, v skladu z uredbo GDPR še vedno potrebujete izrecno soglasje. Če sprejema odločitve o cenah ali upravičenosti, lahko za te odločitve prav tako veljajo pravice do pojasnil v skladu z obema zakonoma.
Najvarnejši pristop je, da vsako stično točko s strankami, ki jo poganja umetna inteligenca, obravnavate kot dvojno regulirano. Opredelite tveganja v skladu z zakonom EU o umetni inteligenci - nato preverite, ali vaše prakse ravnanja s podatki ustrezajo tudi uredbi GDPR.
Zakon EU o umetni inteligenci ne ureja le bleščečih marketinških orodij ali javno dostopnih klepetalnih robotov. Gre globlje in se osredotoča na infrastrukturo, ki poganja poslovne dejavnosti. Če vaše podjetje uporablja umetno inteligenco za sprejemanje notranjih odločitev - o zaposlovanju, nadomestilih, kreditnem tveganju ali nadzoru procesov -, je ta avtomatizacija zdaj pod strogim nadzorom.
Več kategorij poslovne avtomatizacije spada v kategorijo sistemov z visokim tveganjem. Mednje spadajo:
Ti sistemi morajo izpolnjevati stroge standarde skladnosti. To vključuje testiranje pred uvedbo, oceno tveganja in vzdrževanje podrobne tehnične dokumentacije, v kateri je opisano, kako je bila umetna inteligenca zgrajena, usposobljena in potrjena (Uredba (EU) 2024/1689).
Če vaša UI avtomatizira odločitve, ki bistveno vplivajo na ljudi ali storitve, morate biti sposobni dokazati, kako deluje. To pomeni, da je treba ustvariti:
Zakon EU o umetni inteligenci jasno določa: avtomatizacija brez odgovornosti ni več sprejemljiva. Od podjetij se pričakuje, da bodo človeški nadzor vključila neposredno v zasnovo sistema - ne le kot varovalko, temveč kot standardni del delovanja.
V nasprotju z drugimi regulativnimi kontrolnimi seznami je v zakonu EU o umetni inteligenci skladnost opredeljena kot neprekinjen proces. Sisteme, ki so bili skladni ob uvedbi, bo morda treba ponovno oceniti, ko se bodo razvijali ali ko se bodo pojavila nova tveganja. Od podjetij se pričakuje, da redno spremljajo, poročajo in ponovno preverjajo svoje sisteme. Če posodobitev spremeni delovanje vašega modela ali uvede nove zmogljivosti, boste morda morali predložiti posodobljeno dokumentacijo ali opraviti novo ugotavljanje skladnosti.
Zakon uvaja tudi obveznosti za podjetja, ki v svoje avtomatizirane sklope gradijo ali vključujejo sisteme umetne inteligence za splošne namene (GPAI) - kot so temeljni modeli ali predhodno usposobljeni motorji. Če za sprejemanje odločitev uporabljate orodje umetne inteligence tretje osebe, ste soodgovorni za njegovo delovanje, tveganja in preglednost.
Z drugimi besedami, krivde ne morete preprosto prenesti na svojega prodajalca.
Razumeti morate, kako je bil model usposobljen, katere podatke uporablja in ali je skladen s standardi zakona. Če ga natančno prilagodite ali uporabite v okolju z visokim tveganjem, se vaše obveznosti še povečajo.
Za podjetja, ki uporabljajo umetno inteligenco za racionalizacijo poslovanja, je ta sprememba pomembna. Skladnost ni povezana le z orodji, ki jih gradite, temveč tudi z orodji, ki jih kupujete, prilagajate in povezujete s podatki o strankah.
Zakon EU o umetni inteligenci ne pomeni, da je treba prilagoditi nekaj pravilnikov o zasebnosti. Podjetja prisili, da vzpostavijo trajno notranjo infrastrukturo za odgovornost. Skladnost zajema dokumentacijo, strukturo ekipe, upravljanje prodajalcev in vsakodnevno delovanje - in če vaše podjetje uporablja umetno inteligenco v okoljih z visokim ali omejenim tveganjem, to ne bo poceni ali hitro.

Vsak sistem UI z visokim tveganjem mora biti podprt z obsežno tehnično dokumentacijo. Ta vključuje splošni opis sistema, predvideni namen, metrike delovanja, postopke testiranja, vire podatkov, arhitekturo modela in strategije za zmanjševanje tveganja. To dokumentacijo je treba posodabljati v celotnem življenjskem ciklu sistema umetne inteligence (člen 11).
Pred uvedbo mora sistem opraviti oceno skladnosti - bodisi z notranjimi pregledi bodisi, za številne primere uporabe z visokim tveganjem, prek priglašenega organa tretje osebe. Če se zanašate na zunanje razvijalce, so obvezne tudi revizije prodajalcev, kar pomeni, da vaše ekipe za javna naročila zdaj od vsakega partnerja na področju umetne inteligence potrebujejo pravno ustrezno dokumentacijo (člen 43).
Skladnost ni le papirnata. Gre za upravljanje. Podjetja morajo ustvariti notranje okvire za upravljanje tveganj UI od razvoja do spremljanja po dajanju na trg. To vključuje postopke za razvrščanje sistemov UI, izvajanje ocen tveganja, zagotavljanje človeškega nadzora ter redno pregledovanje dnevnikov in incidentov (9. člen, 61. člen).
Za operacionalizacijo teh delovnih postopkov morajo biti vzpostavljene medfunkcijske skupine za upravljanje. Pravne, podatkovne in inženirske ekipe morajo biti vključene že zgodaj - ne le med končnim pregledom.
Komisija v lastni analizi ocenjuje, da povprečni stroški skladnosti za visoko tvegane sisteme umetne inteligence znašajo med 100 000 in 400 000 EUR na sistem, odvisno od kompleksnosti (priloge k oceni učinka). Za MSP to lahko predstavlja 30-40 % pričakovanega dobička od posameznega izdelka.
Tudi letni stroški ne izginejo. Tekoče upravljanje tveganj, spremljanje, dokumentiranje in poročanje o upravljanju znašajo pri večini ponudnikov z visokim tveganjem v povprečju od 38 000 do 85 000 EUR na leto.
To niso špekulacije. Ti stroški so zdaj del proračunskih napovedi in modelov tveganja vlagateljev za podjetja, ki poslujejo v EU ali prodajajo v EU.

Pred vsem drugim se skladnost začne z revizijo. Podjetja morajo kartirati vsak sistem umetne inteligence, ki ga uporabljajo - v stiku s strankami ali znotraj podjetja - in vsakega razvrstiti na podlagi štiristopenjskega okvira tveganja iz zakona.
To pomeni, da je treba slediti:
Orodja, kot so klepetalni roboti, motorji za personalizacijo, modeli za ocenjevanje vodilnih strank in avtomatizirani generatorji vsebin, zahtevajo razvrstitev. Mnoga od njih spadajo v kategorijo omejenega tveganja, ki pa je še vedno povezana s pravili o preglednosti.
Ker se umetna inteligenca dotika tako tehničnih kot etičnih področij, skladnost ne more biti ločena. Podjetja morajo vzpostaviti nove delovne tokove, ki vključujejo:
Te delovne tokove je treba kodificirati v vsakodnevne dejavnosti - vključno s sprožilci, ki v primeru spremembe, preusposabljanja ali spremembe namembnosti sistema zahtevajo pregled skladnosti.
Preglednost je ena od najbolj vidnih zakonskih obveznosti. Zakon EU o umetni inteligenci od podjetij zahteva, da jasno obveščajo uporabnike, ko ti komunicirajo z umetno inteligenco, in jim razumljivo pojasnjujejo avtomatizirane odločitve (člen 52).
Vendar pa zakon sega dlje od razkritij v potrditvenih okencih. Pojasnila morajo biti "jasna, jedrnata in razumljiva". To pomeni, da pravne ekipe ne pišejo samo pogojev o zasebnosti - oblikovalci UX morajo sodelovati, da zagotovijo, da so ti pogoji dejansko vidni, prebrani in razumljivi.
Če je vaša preglednost odvisna od drobnega tiska, niste skladni.
Kupujete ali integrirate zunanja orodja umetne inteligence? Tveganje se prenese na vas.
Od prodajalcev morate zahtevati, da zagotovijo dokumentacijo o:
Če prodajalec ne more dokazati skladnosti ali vam ne more povedati, od kod prihajajo njegovi podatki, ogrožate celotno poslovanje.
Vprašanja, ki jih zastavite vsakemu prodajalcu:
Če je odgovor "ne vemo", odidite.
Pismenost na področju umetne inteligence ni več konkurenčna prednost. Je zakonska zahteva. Vaša ekipa - v vseh oddelkih - mora razumeti, kaj zahteva Zakon EU o umetni inteligenci in kako se njihova vloga vključuje v to sliko.
Vodje izdelkov morajo vedeti, katere funkcije sprožijo obveznosti glede preglednosti. Razvijalci morajo vedeti, kako izvajati nadzor nad tveganji. Pravne ekipe morajo tekoče poznati sklicevanja na člene, podpora strankam pa mora biti pripravljena končnim uporabnikom razložiti izhode UI.
Usposabljanje ni enkratna delavnica. Vključiti ga je treba v uvajanje, ga okrepiti z osvežitvami in prilagoditi glede na razvoj zakonodaje. Podjetja, ki bodo usposabljanje obravnavala kot premislek, bodo zaostajala - ali pa bodo kaznovana.
Zakon EU o umetni inteligenci določa pravne meje, vendar bo etika določala, katera podjetja bodo uspela v novem gospodarstvu umetne inteligence. Ko bodo predpisi v delovne procese izdelkov vsilili preglednost, poštenost in odgovornost, bodo izstopala podjetja, ki bodo ta načela obravnavala kot strateške prednosti - in ne kot obveznosti.
Skladnost je zdaj osnovno izhodišče. Stranke, regulatorji in partnerji pričakujejo več kot le spoštovanje zakonodaje. Želijo vedeti, da vaša orodja umetne inteligence spoštujejo uporabnike, se izogibajo pristranskosti in nudijo možnost pritožbe. To ni samo vprašanje B2C. Pri prodaji v podjetjih, vladnih naročilih in reguliranih sektorjih, kot sta finance in zdravstvo, postaja etično upravljanje umetne inteligence merilo za izbor. Če vaš sistem ne more pojasniti, kako deluje ali kdo ga nadzoruje, se morda sploh ne boste uvrstili v ožji izbor.
Napredne blagovne znamke že sprejemajo ta premik. Preglednost vključujejo v UX, objavljajo izjave o pojasnjevanju, usposabljajo medfunkcijske ekipe o tveganjih AI in predstavljajo svoje notranje okvire nadzora. To niso le PR poteze, temveč tudi konkurenčni signali.
Dobro izvedena etična umetna inteligenca postane vzvod rasti. Pritegne stranke, pomiri vlagatelje, poenostavi revizije in zagotovi delovanje v prihodnosti. Zakon EU o umetni inteligenci je morda prisilil k pogovoru, vendar pravo zmago prinašajo podjetja, ki ga vodijo.





























