Evropský komisař pro vnitřní trh Thierry Breton prohlásil, že náhlý nárůst popularity aplikací umělé inteligence (AI), jako je ChatGPT od OpenAI nebo nově Microsoft 365 Copilot, a související rizika podtrhují naléhavou potřebu stanovit pravidla.
"Jak ukázal ChatGPT, řešení AI mohou nabídnout velké příležitosti pro podniky a občany, ale mohou také představovat rizika. Proto potřebujeme pevný regulační rámec, který zajistí důvěryhodnou umělou inteligenci založenou na vysoce kvalitních datech," řekl Thierry Breton.
Evropské instituce v současné době spolupracují na tvorbě prvního právního rámce pro umělou inteligenci.
ChatGPT je hodnocen jako nejrychleji rostoucí spotřebitelská aplikace v historii. Objevují se obavy, že systémy používané těmito aplikacemi by mohly být zneužity k plagiátorství, podvodům a šíření dezinformací.
OpenAI na svých webových stránkách uvedla, že jejím cílem je produkovat umělou inteligenci, která "prospívá celému lidstvu", protože se pokouší vybudovat bezpečnou a prospěšnou AI. To ale zjevně nestačí.
Navíc, jak sdělil Jared Spataro, Viceprezident Microsoftu „Microsoft 365 Copilot je mnohem více než jen ChatGPT implementovaný do balíku Microsoft Office.“
První regulační rámec EU pro umělou inteligenci (AI Act)
Podle návrhu pravidel EU je ChatGPT považován za univerzální systém umělé inteligence, který lze použít pro více účelů, včetně vysoce rizikových, jako je např. výběr kandidátů na pracovní místa a kreditní skóring.
Regulační rámec v současné době definuje čtyři úrovně rizika v oblasti umělé inteligence, což vyvolává znepokojení mezi některými společnostmi, které se obávají, že jejich produkty budou označeny jako vysoce rizikové.
ČTYŘI ÚROVNĚ JSOU:
Nepřijatelné riziko
Jakýkoli systém, který je považován za jasnou hrozbu pro lidi, "bude zakázán", podle Komise, a to včetně "sociálního scoringu občanů ze strany vlád nebo hračky využívající hlasovou asistenci, která podporuje nebezpečné chování".
Vysoce rizikové
Jedná se o systémy umělé inteligence v rámci kritických infrastruktur, jako je doprava, nebo ve vzdělávání či zaměstnanosti, kde by umělá inteligence mohla určit výsledek zkoušek nebo žádostí o zaměstnání.
Omezené riziko
Jedná se o systémy se "specifickými povinnostmi transparentnosti", jako je chatbot, který se identifikuje jako AI.
Minimální nebo žádné riziko
Komise uvádí, že "velká většina" systémů, které se v současné době používají v EU, spadá do této kategorie a zahrnuje např. i videohry s podporou umělé inteligence a spamové filtry.
"Lidé by museli být informováni, že mají co do činění s chatbotem a ne s lidskou bytostí," řekl Breton.
Být v určité z rizikových kategorií by vedlo k přísnějším požadavkům na dodržování předpisů a vyšším nákladům, tvrdí vedoucí pracovníci několika společností zapojených do vývoje umělé inteligence.
Průzkum provedený průmyslovou organizací appliedAI ukázal, že 51 % respondentů očekává zpomalení svých aktivit v oblasti vývoje AI v důsledku přijetí takové regulace.
Prezident Microsoftu Brad Smith v této souvislosti uvedl:
"Jsou dny, kdy jsem optimista, a chvíle, kdy jsem pesimistický ohledně toho, jak lidstvo využije umělou inteligenci."
Opmerkingen