top of page

Plan für europäische Regulierung der künstlichen Intelligenz (Artificial Intelligence AI)

Thierry Breton, der EU-Kommissar für den Binnenmarkt, sagte, dass der plötzliche Anstieg der Popularität von AI Anwendungen wie ChatGPT oder ganz neu Microsoft 365 Copilot und die damit verbundenen Risiken die dringende Notwendigkeit der Festlegung von Regeln unterstreichen.

"Wie ChatGPT zeigt, können AI-Lösungen große Chancen für Unternehmen und Bürger bieten, aber auch Risiken bergen. Deshalb brauchen wir einen soliden regulatorischen Rahmen, um eine vertrauenswürdige AI auf der Grundlage hochwertiger Daten zu gewährleisten", sagte Thierry Breton.

Die europäischen Institutionen arbeiten derzeit am ersten Rechtsrahmen für AI.

Da ChatGPT als die am schnellsten wachsende Verbraucher-App in der Geschichte eingestuft wurde, erchienen auch Befürchtungen, dass Systeme, die von solchen Apps verwendet werden, für Plagiate, Betrug und die Verbreitung von Fehlinformationen missbraucht werden könnten.

OpenAI hat auf seiner Website gesagt, dass es darauf abzielt, künstliche Intelligenz zu produzieren, die "der gesamten Menschheit zugute kommt", während es versucht, eine sichere und nützliche AI zu entwickeln. Das ist offenbar nicht genug.

Außerdem, wie Jared Spataro, Microsoft Vice Präsident, sagte: "Microsoft 365 Copilot ist viel mehr als nur ChatGPT, das in der Microsoft Office-Suite implementiert ist."



Der erste AI-Rechtsrahmen (AI Act)

Nach dem EU-Entwurf gilt ChatGPT als universelles AI-System, das für mehrere Zwecke verwendet werden kann, einschließlich risikoreicher Zwecke wie die Auswahl von Kandidaten für Jobs und die Kreditbewertung.

Der regulatorische Rahmen definiert derzeit vier Risikostufen in der AI - was bei einigen Unternehmen für Unruhe sorgt, die befürchten, dass ihre Produkte als hohes Risiko eingestuft werden.


DIE VIER EBENEN SIND:


Inakzeptables Risiko

Jedes System, das als klare Bedrohung für Menschen angesehen wird, "wird verboten", so die Kommission, einschließlich "Social Scoring durch Regierungen oder Spielzeug mit Sprachunterstützung, die gefährliches Verhalten fördert".


Hohes Risiko

Dies sind AI-Systeme in kritischen Infrastrukturen wie dem Verkehr oder in Bildungs- oder Beschäftigungskontexten, in denen das Ergebnis von Prüfungen oder Bewerbungen durch AI bestimmt werden könnte.


Begrenztes Risiko

Dies sind Systeme mit "spezifischen Transparenzpflichten", wie z.B. ein Chatbot, der sich als AI identifiziert.


Minimales oder kein Risiko

Die Kommission sagt, dass die "überwiegende Mehrheit" der derzeit in der EU verwendeten Systeme in diese Kategorie fällt, und sie umfassen AI-fähige Videospiele und Spam-Filter.


"Die Leute müssten darüber informiert werden, dass sie es mit einem Chatbot und nicht mit einem Menschen zu tun haben", sagte Breton.


In einer Hochrisikokategorie zu sein, würde zu strengeren Compliance-Anforderungen und höheren Kosten führen, so Führungskräfte mehrerer Unternehmen, die an der Entwicklung der AI beteiligt sind.

Eine Umfrage des Branchenverbandes appliedAI ergab, dass 51 Prozent der Befragten eine Verlangsamung ihrer AI-Entwicklungsaktivitäten als Folge des KI-Gesetzes erwarten.

Microsoft Präsident Brad Smith schrieb in diesem Zusammenhang:

"Es gibt Tage, an denen ich optimistisch bin und Momente, an denen ich pessimistisch bin, wie die Menschheit AI einsetzen wird."

Comments


bottom of page