LONDÝN - Európska únia zistila, že niektoré významné modely umelej inteligencie, vrátane tých od spoločností ako OpenAI a Meta, nespĺňajú kľúčové predpisy týkajúce sa kybernetickej bezpečnosti a diskriminačného výstupu. Nový hodnotiaci rámec COMPL-AI, vyvinutý výskumnými inštitúciami, testuje tieto modely a odhaľuje nedostatky, čo naznačuje, že technologické firmy musia upraviť svoje prístupy na zabezpečenie súladu s predpismi EÚ. Zákonodarcovia varovali, že za nedodržanie pravidiel hrozia firmám vysoké pokuty až do výšky 35 miliónov eur.
Podľa údajov agentúry Reuters niektoré z najvýznamnejších modelov umelej inteligencie nespĺňajú európske predpisy v kľúčových oblastiach, ako je odolnosť voči kybernetickej bezpečnosti a diskriminačný výstup.
EÚ dlho diskutovala o nových nariadeniach o umelej inteligencii, kým spoločnosť OpenAI koncom roka 2022 zverejnila ChatGPT. Rekordná popularita a následná verejná diskusia o údajných existenčných rizikách takýchto modelov podnietili zákonodarcov k vypracovaniu osobitných pravidiel týkajúcich sa "všeobecných" umelých inteligencií (GPAI).
Európsky zákon o umelej inteligencii (AIA) je jedným z najdôležitejších právnych predpisov pre ekosystém umelej inteligencie a mnohí očakávajú, že bude formovať reguláciu na celom svete, tzv. bruselské účinky. Zákon však načrtáva regulačné požiadavky na vysokej úrovni bez toho, aby poskytoval podrobné technické usmernenia, ktorými by sa spoločnosti mali riadiť. S cieľom preklenúť túto medzeru Európska komisia začala konzultácie o kódexe postupov pre poskytovateľov modelov umelej inteligencie na všeobecné účely (GPAI), ktorého cieľom je dohliadať na implementáciu a presadzovanie nariadení zákona o umelej inteligencii pre GPAI.
ETH Zürich, INSAIT a LatticeFlow AI dnes predstavili prvý hodnotiaci rámec pre generatívne modely umelej inteligencie podľa zákona EÚ o umelej inteligencii, COMPL-AI. Tento rámec poskytuje technický výklad zákona a premieňa regulačné požiadavky na technické kritériá.
Thomas Regnier, hovorca Európskej komisie pre digitálnu ekonomiku, výskum a inovácie, sa vyjadril k tomuto vydaniu: "Európska komisia víta túto štúdiu a platformu na hodnotenie modelov umelej inteligencie ako prvý krok pri transformácii Aktu EÚ o umelej inteligencii do technických požiadaviek, čo pomôže poskytovateľom modelov umelej inteligencie pri implementácii Aktu o umelej inteligencii."
Nový nástroj, ktorý privítali úradníci Európskej únie, teraz testuje generatívne modely AI vyvinuté veľkými technologickými spoločnosťami, ako je Meta a OpenAI, v desiatkach kategórií v súlade s rozsiahlym zákonom o AI, ktorý vstúpi do platnosti postupne v priebehu nasledujúcich dvoch rokov.
Rámec, ktorý navrhol švajčiarsky startup LatticeFlow AI a jeho partneri z dvoch výskumných ústavov, ETH Zürich a bulharského INSAIT, udeľuje modelom umelej inteligencie skóre od 0 do 1 v desiatkach kategórií vrátane technickej robustnosti a bezpečnosti.
Rebríček, ktorý v stredu zverejnila spoločnosť LatticeFlow, ukázal, že modely vyvinuté spoločnosťami Alibaba, Anthropic, OpenAI, Meta a Mistral získali priemerné skóre 0,75 alebo viac.
Kontrola veľkého jazykového modelu (LLM), ktorú vykonala spoločnosť, však odhalila nedostatky niektorých modelov v kľúčových oblastiach a poukázala na to, kde môžu spoločnosti potrebovať presmerovať zdroje, aby zabezpečili súlad.
Spoločnostiam, ktoré nedodržia zákon o umelej inteligencii, hrozia pokuty vo výške 35 miliónov eur alebo 7 % celosvetového ročného obratu.
EÚ sa v súčasnosti stále snaží stanoviť, ako sa budú presadzovať pravidlá zákona o umelej inteligencii týkajúce sa generatívnych nástrojov umelej inteligencie, ako je ChatGPT, a zvolala odborníkov, aby do jari 2025 vypracovali kódex postupov, ktorým sa bude táto technológia riadiť.
Tento test však ponúka skorý ukazovateľ konkrétnych oblastí, v ktorých technologické spoločnosti riskujú, že nebudú dodržiavať zákony.
Pri vývoji generatívnych modelov umelej inteligencie je napríklad pretrvávajúcim problémom diskriminačný výstup, ktorý po výzve odráža ľudské predsudky týkajúce sa pohlavia, rasy a iných oblastí.
Pri testovaní diskriminačného výstupu udelil LatticeFlow LLM Checker systému OpenAI "GPT-3.5 Turbo" relatívne nízke skóre 0,46. V rovnakej kategórii získal model Alibaba Cloud (9988.HK), "Qwen1.5 72B Chat" iba 0,37 bodu.
Pri testovaní na "únos výzvy" ("prompt hijacking"), čo je typ kybernetického útoku, pri ktorom hackeri maskujú škodlivú výzvu ako legitímnu, aby získali citlivé informácie, udelil nástroj LLM Checker modelu Meta "Llama 2 13B Chat" skóre 0,42. V rovnakej kategórii získal model "8x7B Instruct" francúzskeho startupu Mistral známku 0,38.
Najvyššie priemerné skóre 0,89 získal model "Claude 3 Opus", ktorý vyvinula spoločnosť Anthropic podporovaná spoločnosťou Google.
Test bol navrhnutý v súlade so znením zákona o umelej inteligencii a bude rozšírený tak, aby zahŕňal ďalšie opatrenia na presadzovanie práva, keď budú zavedené. Spoločnosť LatticeFlow uviedla, že nástroj LLM Checker bude voľne dostupný pre vývojárov, ktorí môžu testovať súlad svojich modelov online.
Petar Tsankov, generálny riaditeľ a spoluzakladateľ spoločnosti, pre agentúru Reuters uviedol, že výsledky testov boli celkovo pozitívne a ponúkli spoločnostiam plán, ako doladiť svoje modely v súlade so zákonom o umelej inteligencii. "EÚ ešte stále pracuje na všetkých kritériách dodržiavania predpisov, ale už teraz vidíme v modeloch určité medzery," povedal. "Veríme, že pri väčšom zameraní sa na optimalizáciu z hľadiska súladu s predpismi môžu byť poskytovatelia modelov dobre pripravení na splnenie regulačných požiadaviek."
Pre používanie spravodajstva Netky.sk je potrebné povoliť cookies