Végre van egy definíciónk a nyílt forráskódú mesterséges intelligenciára
A kutatók hosszú ideje nem értenek egyet abban, hogy mi minősül nyílt forráskódú mesterséges intelligenciának. Egy befolyásos csoport most felajánlott egy választ.
CMS AI Academy cikksorozatunk második részében azokat a szabályokat járjuk körbe, amelyek a nagy kockázatú AI rendszerekre és az általános célú AI rendszerekre vonatkoznak.
A cikksorozat első részben már érintettük az EU AI Act hatályát, a tiltott AI rendszereket, ezekről itt olvashat bővebben.
Milyen AI rendszerek minősülnek nagy kockázatúnak?
Általánosságban nagy kockázatúnak azok az AI rendszerek minősülnek, amelyek jelentős kockázatot jelentenek természetes személyek egészségére, biztonságára vagy alapvető jogaira, többek között azáltal, hogy lényegesen befolyásolják a döntéshozatalt.
Az AI Act III. melléklete tartalmazza azon AI rendszerek listáját, amelyeket minden esetben nagy kockázatúnak kell tekinteni. Ha egy szolgáltató úgy ítéli meg, hogy a rendelet mellékletében felsorolt AI rendszer mégsem nagy kockázatú, akkor külön értékelést kell készítenie dokumentáltan erről, és ebben az esetben is be kell jelentenie az AI rendszert az EU AI nyilvántartásba.
Az AI rendszerek közül nagy kockázatúnak minősülnek az alábbiak:
Milyen kötelezettségeik vannak a nagy kockázatú AI rendszerek szolgáltatóinak, forgalmazóinak, importőreinek és alkalmazóinak?
A nagy kockázatú AI rendszerek szolgáltatóinak sokféle kötelezettséget ír elő az új EU AI Act. Fő kötelezettségként kockázatkezelési rendszert kell létrehozni, fenntartani és dokumentálni.
A kockázatkezelési rendszer részeként az alábbi fő intézkedéseket kell megtennie az AI rendszer szolgáltatójának:
A nagy kockázatú AI rendszerek importőreinek csak korlátozottabb kötelezettségeik vannak, ők azt kötelesek ellenőrizni, hogy a szolgáltató elvégezte-e a megfelelőségértékelést, elkészítette-e a műszaki dokumentációt, van-e CE jelölés, EU megfelelőségi nyilatkozat és használati utasítás, továbbá fel kell tüntetniük a kereskedelmi nevüket, védjegyüket at AI rendszeren, meg kell őrizniük a tanúsítványt, a használati útmutatót és az EU megfelelőségi nyilatkozatot.
A nagy kockázatú AI rendszerek forgalmazóinak ellenőriznie kell, hogy az importőr feltüntetésre került-e, megvan-e az EU megfelelőségi nyilatkozat és a használati utasítás.
A nagy kockázatú AI rendszerek alkalmazóinak az a kötelezettsége, hogy a használati útmutatónak megfelelően használják az AI rendszert, emberi felügyeletet biztosítsanak az AI rendszer működése során, megőrizzék a naplókat és biztosítsák, hogy a bemeneti adatok relevánsak é, reprezentatívak, jó minőségúek legyenek.
A fenti követelményeknek való megfelelésre az AI Act 2 éves időtartamot biztosít.
Speciális követelmények egyes nagy kockázatú AI modellekre
A fenti követelményeken felül további tájékoztatási kötelezettségek vonatkoznak a virtuális asszisztensekre, chatbotokra, személyre szabott ajánlórendszerekre, diagnosztikai eszközökre, szintetikus tartalmat létrehozó AI rendszerekre, érzelemfelismerő AI rendszerekre és deefake-et létrehozó AI megoldásokra.
Mi az általános célú AI rendszer, és milyen külön szabályok vonatkoznak rá?
Az olyan AI modellek szolgáltatóinak, amelyek sokféle feladat ellátására képesek, és sokféle rendszerbe integrálhatók (általános célú AI modellek – GPAI), külön kötelezettségeknek kell eleget tenniük. Így például a műszaki dokumentáció tartalmára külön szabályok vonatkoznak, külön információt és dokumentációt kell biztosítani azok számára, akik a GPAI modellt be kívánják építeni alkalmazásukba, szerzői jogi szabályzattal kell rendelkezniük a modell tanításához használt tartalomhoz részletes összefoglalót kell készíteniük.
Szankciók az AI Act megsértése esetén
Az EU AI Act megsértése esetén magas bírságokra számíthatnak a szolágltatók, importőrök, forgamazók és alkalmazók is. Tiltott AI használatáért kiszabható bírság maximuma 35 millió euro, vagy az éves globális árbevétel 7%-a, AZ AI Act egyéb megsértéséért és a GPAI-ra vonatkozó szabályok megsértéséért 15 millió euro bírság szabható ki, vagy az éves globális árbevétel 3%-a a maximális bírságösszeg. A félrevezető információk közléséért kiszabható bírság maximuma az éves globális árbevétel 1%-a vagy 7,5 millió euro.
A cikk szerzői:
A kutatók hosszú ideje nem értenek egyet abban, hogy mi minősül nyílt forráskódú mesterséges intelligenciának. Egy befolyásos csoport most felajánlott egy választ.
Jelen cikkünk elméleti bevezetőt ad a kísérleti alapú szabályozási eszközök hátteréhez, majd a következő részben igyekszünk az elméleti bevezetőt lefordítani a gyakorlat nyelvére és a szabályozási homokozók példáján arra keressük a választ, mit jelenthetnek ezek a vállalati mindennapokban.
Egy német bíróság visszautasította a nagyméretű képi adatkészleteket szolgáltató, nonprofit LAION (Large-scale AI Open Network) elleni szerzői jogok megsértése miatt beadott keresetet. Az adatkészleteket olyan képgeneráló modellek használják, mint a Midjourney, a Stable Diffusion és mások, rajtuk gyakorolnak. A szolgáltató tevékenysége a jogi védelem alatt álló tudományos kutatások kategóriába tartozik – mondta ki a verdikt.
Köszönjük, hogy feliratkozott hírlevelünkre!
Kérem, pipálja be a captchát elküldés előtt
Ha egy másik hírlevélre is fel szeretne iratkozni, vagy nem sikerült a feliratkozás, akkor kérjük frissítse meg a böngészőjében ezt az oldalt (F5)!
Kérem, válasszon egyet hírleveleink közül!