asseco Aimtec murr

Měla by se AI otevřít bezpečnostním kontrolám?

Více než 150 výzkumníků AI, etiků, právních expertů a profesorů podepsalo otevřenou výzvu, požadující, aby firmy zabývající se generativní AI zpřístupnily své technologie externímu hodnocení.

 

Dopis, který vypracovali vědci z MIT, Princetonu a Stanfordské univerzity, vyzval k právní a technické ochraně pro výzkum v dobré víře na modelech genAI, jehož absence podle nich brání bezpečnostním opatřením, která by mohla pomoci chránit veřejnost. Výzkumníci požadují právní „bezpečný přístav“ (safeharbor) pro nezávislé hodnocení produktů genAI.
Dokument byl zaslán společnostem: OpenAI, Anthropic, Google, Meta a Midjourney, a žádá je, aby umožnily prostudování jejich produktů a zajistili tak ochranu spotřebitelů před zaujatostí, možným porušením autorských práv a nesouhlasnými intimními snímky. Nezávislé hodnocení modelů umělé inteligence, které jsou již nasazeny a zkoumají širokou řadu často neočekávaných nedostatků souvisejících se zneužitím a dalšími problémy této technologie, je považováno za zásadní pro zajištění bezpečnosti, ochrany a důvěry. Nezávislý výzkum odhalil zranitelná místa související s jazyky s nízkými zdroji, obcházením bezpečnostních opatření a širokou škálou prolomení ochran.
Už před rokem vyzvala skupina technologických expertů, aby laboratoře s AI přestaly trénovat nejvýkonnější systémy po dobu nejméně půl roku, s odkazem na „hluboká rizika pro společnost a lidstvo“. Tento otevřený dopis už má nyní více než 3100 signatářů z řad renomovaných technických odborníků, kteří si vzali na mušku zejména nedávno oznámený algoritmus GPT-4 firmy OpenAI Lab a uvedli, že firma by měla zastavit jeho další vývoj, dokud nebudou zavedeny standardy dohledu. Varují, že generativní systémy AI představují významná rizika, a konstatují, že nezávislé hodnocení těchto rizik by mělo být základní formou odpovědnosti. Výzva kvituje, že někteří výrobci generativní AI mají speciální programy umožňující výzkumníkům přístup k jejich systémům, avšak upozorňuje také, že v jiných případech již tyto firmy naopak pozastavily jejich účty a změnily své podmínky služby, aby zabránily některým typům hodnocení.
Za výjimky označili společnosti AI Cohere a OpenAI. Cohere umožňuje „záměrné zátěžové testování API a nepřátelské útoky“ za předpokladu náležitého odhalení zranitelnosti, a OpenAI rozšířila v reakci na výzvu svůj „bezpečný přístav“ o výzkum zranitelnosti modelů a výzkum bezpečnosti akademických modelů.

Petr Sedlický
Foto: Acutiv

 
Publikováno: 26. 4. 2024 | Počet zobrazení: 41 článek mě zaujal 7
Zaujal Vás tento článek?
Ano