Úvod
Zákon Evropské unie o umělé inteligenci (EU AI Act) je převratné nařízení, jehož cílem je podporovat vývoj a nasazení důvěryhodných systémů umělé inteligence. Vzhledem k tomu, že podniky stále více spoléhají na technologie umělé inteligence, včetně řečové umělé inteligence a velkých jazykových modelů (LLM), stává se soulad se zákonem EU o umělé inteligenci zásadní. Tento blogový příspěvek zkoumá klíčové výzvy, které nařízení přináší a jak vám Shaip může pomoci je překonat.
Pochopení zákona EU o umělé inteligenci
Zákon Evropské unie o umělé inteligenci (EU AI Act) zavádí přístup k regulaci systémů umělé inteligence založený na rizicích a kategorizuje je na základě jejich potenciálních dopadů na jednotlivce a společnost. Jak podniky vyvíjejí a zavádějí technologie umělé inteligence, pochopení úrovní rizik spojených s různými kategoriemi dat je zásadní pro soulad se zákonem EU o umělé inteligenci. Zákon EU o umělé inteligenci klasifikuje systémy umělé inteligence do čtyř kategorií rizik: minimální, omezené, vysoké a nepřijatelné riziko.

Na základě návrhu zákona o umělé inteligenci (2021/0106(COD)) jsou zde kategorie rizik a odpovídající datové typy a odvětví ve formátu tabulky:
Systémy umělé inteligence s nepřijatelným rizikem:
| Typy dat | Obory |
| Podprahové techniky ke zkreslení chování | Vše |
| Využití zranitelností specifických skupin | Vše |
| Sociální bodování veřejnými orgány | Vláda |
| Vzdálená biometrická identifikace v reálném čase ve veřejně přístupných prostorech pro vymáhání práva (až na výjimky) | Vymáhání práva |
Vysoce rizikové systémy umělé inteligence:
| Typy dat | Obory |
| Biometrická identifikace a kategorizace fyzických osob | Vymáhání práva, hraniční kontrola, soudnictví, kritická infrastruktura |
| Správa a provoz kritické infrastruktury | Inženýrské sítě, doprava |
| Vzdělávání a odborná příprava | Vzdělání |
| Zaměstnání, řízení pracovníků, přístup k samostatné výdělečné činnosti | HR |
| Přístup k základním soukromým a veřejným službám a jejich užívání | Státní služby, finance, zdravotnictví |
| Vymáhání práva | Vymáhání práva, trestní soudnictví |
| Řízení migrace, azylu a kontroly hranic | Kontrola hranic |
| Správa spravedlnosti a demokratické procesy | Soudnictví, volby |
| Bezpečnostní komponenty strojů, vozidel a dalších výrobků | Výroba, automobilový průmysl, letectví, zdravotnická zařízení |
Systémy umělé inteligence s omezeným rizikem:
| Typy dat | Obory |
| Rozpoznávání emocí nebo biometrická kategorizace | Al |
| Systémy, které generují nebo manipulují s obsahem („hluboké padělky“) | Média, zábava |
| Systémy umělé inteligence určené k interakci s fyzickými osobami | Zákaznický servis, prodej, zábava |
Systémy umělé inteligence s minimálním rizikem:
| Typy dat | Obory |
| Videohry s podporou AI | Zábava |
| AI pro filtrování spamu | Vše |
| AI v průmyslových aplikacích bez dopadu na základní práva nebo bezpečnost | Výroba, logistika |
Výše uvedené tabulky poskytují souhrnné shrnutí toho, jak různé typy dat a odvětví mapují kategorie rizika AI definované v navrhovaném nařízení. Aktuální text poskytuje podrobnější kritéria a definice rozsahu. Obecně platí, že systémy umělé inteligence, které představují nepřijatelná rizika pro bezpečnost a základní práva, jsou zakázány, zatímco systémy představující vysoká rizika podléhají přísným požadavkům a posuzování shody. Systémy s omezeným rizikem mají především povinnosti týkající se transparentnosti, zatímco AI s minimálním rizikem nemá žádné další požadavky nad rámec stávajících právních předpisů.
Klíčové požadavky na vysoce rizikové systémy umělé inteligence podle zákona EU o umělé inteligenci.
Zákon EU o umělé inteligenci stanoví, že poskytovatelé vysoce rizikových systémů umělé inteligence musí dodržovat konkrétní povinnosti ke zmírnění potenciálních rizik a zajištění důvěryhodnosti a transparentnosti svých systémů umělé inteligence. Uvedené požadavky jsou následující:
- Zavést systém řízení rizik k identifikaci a zmírnění rizik v průběhu životního cyklu systému AI.
- Použijte vysoce kvalitní, relevantní a nezkreslená tréninková data který je reprezentativní a neobsahuje chyby a předsudky.
- Udržovat podrobnou dokumentaci účel, návrh a vývoj systému AI.
- Zajistit průhlednost a poskytovat uživatelům jasné informace o možnostech, omezeních a potenciálních rizicích systému AI.
- Nářadí opatření lidského dohledu aby bylo zajištěno, že vysoce rizikové systémy umělé inteligence podléhají lidské kontrole a v případě potřeby je lze potlačit nebo deaktivovat.
- Zajistit robustnost, přesnost a kybernetická bezpečnost ochrana před neoprávněným přístupem, útoky nebo manipulacemi.
Výzvy pro Speech AI a LLM
Řeč AI a LLM často spadají do vysoce rizikové kategorie kvůli jejich potenciálnímu dopadu na základní práva a společenská rizika. Některé z výzev, kterým podniky čelí při vývoji a zavádění těchto technologií, zahrnují:
- Sběr a zpracování vysoce kvalitních, nezkreslených tréninkových dat
- Zmírnění potenciálních zkreslení v modelech AI
- Zajištění transparentnosti a vysvětlitelnosti systémů AI
- Zavádění účinných mechanismů lidského dohledu a kontroly
Jak vám Shaip pomáhá orientovat se v rizikových kategoriích
Datová řešení a služby vyhodnocování modelů AI společnosti Shaip jsou přizpůsobeny tak, aby vám pomohly orientovat se ve složitosti kategorií rizik podle zákona EU o umělé inteligenci:
Minimální a omezené riziko
U systémů umělé inteligence s minimálním nebo omezeným rizikem vám Shaip může pomoci zajistit dodržování závazků transparentnosti poskytnutím jasné dokumentace našich procesů shromažďování dat a anotací.
High Risk
Pro vysoce rizikové systémy Speech AI a LLM nabízí Shaip komplexní řešení, která vám pomohou splnit přísné požadavky:
- Podrobná dokumentace procesů sběru dat a anotací pro zajištění transparentnosti
- Etická data AI pro Speech AI: Naše procesy shromažďování dat upřednostňují souhlas uživatele, ochranu osobních údajů (minimalizace PII) a odstraňují předsudky na základě demografických, socioekonomických faktorů nebo kulturních souvislostí. Tím zajistíte, že vaše modely řečové umělé inteligence splňují zákon EU o umělé inteligenci a zabrání diskriminačním výstupům.
- Zmírnění zkreslení v datech řeči: Rozumíme nuancím mluveného jazyka a potenciálním předsudkům, které se mohou vkrádat do dat. Náš tým pečlivě analyzuje data, aby identifikoval a odstranil potenciální zkreslení, čímž zajišťuje spravedlivější a spolehlivější systémy Speech AI.
- Hodnocení modelu s ohledem na soulad se zákonem EU o umělé inteligenci: Řešení Shaip Model Evaluation & Benchmarking mohou posoudit vaše modely Speech AI z hlediska faktorů, jako je relevance, bezpečnost a potenciální zkreslení. To pomáhá zajistit, aby vaše modely splňovaly požadavky zákona EU AI Act na transparentnost a spravedlnost.
Nepřijatelné riziko
Závazek společnosti Shaip k etickým praktikám umělé inteligence zajišťuje, že naše datová řešení a služby nepřispívají k vývoji systémů umělé inteligence s nepřijatelným rizikem, což vám pomáhá vyhnout se zakázaným praktikám podle zákona EU o umělé inteligenci.
Jak může Shaip pomoci
Díky partnerství se společností Shaip se mohou podniky s jistotou orientovat ve složitosti zákona EU AI Act a zároveň vyvíjet špičkové technologie Speech AI a LLM.
Orientace v kategoriích rizik zákona EU AI Act může být náročná, ale nemusíte to dělat sami. Staňte se partnerem společnosti Shaip a získejte přístup k odborným radám, vysoce kvalitním školicím datům a komplexním službám vyhodnocování modelů. Společně můžeme zajistit, aby vaše projekty Speech AI a LLM byly v souladu se zákonem EU o AI a zároveň podporovaly inovace.