rossleor asseco murr

Umělá inteligence pod dozorem úřadů

Nejpokročilejší technologie generativní umělé inteligence (AI) mohou vytvářet svůj vlastní obsah na základě uživatelských výzev. Může tedy mít za úkol např. vytvářet marketingové nebo reklamní kampaně, psát eseje nebo vyrábět realistické fotografie a videa.

 

ChatGPT, spuštěný loni společností OpenAI Lab a podporovaný miliardami dolarů od firmy Microsoft, se díky sofistikovanému způsobu, jakým generuje hloubkové lidské odpovědi na dotazy, okamžitě stal virálním a podle společnosti Tooltester pro testování webových stránek má v současné době příslušný web odhadem 1 miliardu návštěvníků měsíčně s cca 100 miliony aktivních uživatelů.
Ale jak technologie AI postupuje závratnou rychlostí, předpovídá se, že na obzoru je sofistikovanější algoritmus: umělá obecná inteligence, která by mohla myslet sama za sebe a časem se stát exponenciálně chytřejší. A to, resp. potenciální dopad informačního vlivu a působení zdánlivě věrohodných děl vytvořených na základě problematických či neověřitelných dat se začíná ukazovat jako kolosální problém.
Otevřený dopis od tisíců technologických osobností zveřejněný organizací Future of Life Institute vyzval k zastavení vývoje technologie generativní AI z obavy, že pokud pronikne příliš daleko, může dojít ke ztrátě schopnosti ji ovládat. Dopis získal více než 27 000 signatářů, včetně spoluzakladatele Applu Steva Wozniaka. Zmiňuje zejména algoritmus GPT-4 společnosti OpenAI Lab a uvedl, že společnost by měla zastavit další vývoj, dokud nebudou zavedeny standardy dohledu.

Evropané již zasáhli, USA je následují
V dubnu letošního roku se Itálie stala první západní zemí, která zakázala další vývoj ChatGPT kvůli obavám o soukromí. Začátkem května americké a čínské vlády vydaly oznámení týkající se předpisů pro vývoj AI, což žádná země dosud nezavedla.
„EU a USA se shodují v konceptech, pokud jde dosažení důvěryhodné, transparentní a spravedlivé AI, ale jejich přístupy jsou odlišné,“ konstatuje Avivah Litan, analytik a viceprezident společnosti Gartner Research. Ale řešení, jak udržet AI poctivou, není podle něj snadné. Systémy založené na dosavadních pravidlech budou pravděpodobně neúčinné.
Klíčem k regulaci AI v pojetí EU je klasifikační systém určující úroveň rizika, které by tato technologie mohla představovat pro zdraví a bezpečnost nebo základní práva člověka. Rámec zahrnuje čtyři úrovně rizika: nepřijatelné, vysoké, omezené a minimální, klasifikované podle Světového ekonomického fóra.
EU dokončuje legislativu, která by vedla k odpovědnosti firem vytvářejících platformy generativní umělé inteligence, jako je ChatGPT, jež mohou přebírat obsah, který vytvářejí z nejmenovaných zdrojů. Zákon o umělé inteligenci (AI Act) EU, který původně navrhla Evropská komise v dubnu 2021, je prvním svého druhu v rámci skupiny západních zemí. Navrhovaná legislativa silně spoléhá na stávající pravidla, jako je obecné nařízení o ochraně osobních údajů (GDPR), zákon o digitálních službách a zákon o digitálních trzích. Ustanovení také požadují, aby velké jazykové modely (LLM) za generativní technologií AI, jako je GPT-4, byly navrženy s odpovídajícími zárukami proti generování obsahu, který porušuje zákony EU, přičemž za porušení zákona o AI by mohly být uloženy pokuty až do výše 30 mil. eur nebo 6 % globálního zisku, podle toho, která hodnota je vyšší.
Spojené státy se zaměřily na pokyny a rámec řízení rizik AI a dosud přijaly velmi distribuovaný přístup k řízení rizik AI, ale ještě musí vytvořit nové předpisy nebo regulační infrastrukturu. V lednu americký Národní institut pro standardy a technologie (NIST) vydal rámec pro řízení umělé inteligence. Národní správa pro telekomunikace a informace (NTIA), pobočka amerického ministerstva obchodu, také vydala veřejnou žádost o vyjádření, jaké zásady by nejlépe vedly k odpovědnosti systémů AI. Americké státy i místní úřady se rovněž snaží omezit používání robotů založených na AI k vyhledávání, prověřování, pohovorům a najímání uchazečů o zaměstnání kvůli problémům se soukromím a zaujatostí – někde již byla příslušná opatření i zavedena do místních zákonů.

Na co si dát pozor u AI
Mezi problémy kolem generativních platforem AI, na které by regulační orgány měly podle společnosti Gartner pamatovat, patří zejména následující okruhy:

Modely GPT nelze vysvětlit: Výstupy modelů jsou nepředvídatelné a dokonce ani jejich dodavatelé nechápou, jak interně fungují. Vysvětlitelnost nebo interpretovatelnost jsou předpoklady pro transparentnost modelu.

Nepřesné a vymyšlené odpovědi: Aby se zmírnila rizika nepřesností a fikcí, výstup generovaný ChatGPT/GenAI by měl být před přijetím posouzen z hlediska přesnosti, vhodnosti a skutečné užitečnosti.

Potenciální ohrožení důvěrných dat: Žádné ověřitelné řízení a ochrana dat nezaručují, že nebudou ohroženy důvěrné podnikové informace.

Předpojatost modelu a výstupu: Vývojáři a uživatelé modelů musí mít zavedeny zásady nebo kontroly, aby odhalovaly neobjektivní výstupy a řešily je v souladu s firemní politikou a všemi relevantními právními požadavky.

Rizika duševního vlastnictví a autorských práv: Vývojáři i uživatelé modelů musí před dalším použitím zkontrolovat svůj výstup, aby se ujistili, že neporušuje autorská práva nebo práva duševního vlastnictví, a aktivně sledovat změny v zákonech o autorských právech, které se vztahují na ChatGPT/GenAI.

Kybernetické hrozby a rizika podvodů: Systémy by měly být posíleny, aby se zajistilo, že je zločinci nebudou moci využít ke kybernetickým útokům a podvodům.

Foto: Shutterstock

 
Publikováno: 23. 6. 2023 | Počet zobrazení: 172 článek mě zaujal 53
Zaujal Vás tento článek?
Ano