Künstliche Intelligenz

Vertrauen in Künstliche Intelligenz: EU legt Regeln fest

Chat­bots, Park­assis­tent oder Krebs­dia­gnose - Künst­liche Intel­ligenz (KI) ist bereits Realität. Nicht alle finden das gut. Die EU-Kommis­sion weiß das.
Von mit Material von dpa

Europa will bei der Anwen­dung Künst­licher Intel­ligenz globale Stan­dards setzen. Dazu schlug die EU-Kommis­sion heute Regeln vor, die vor allem das Vertrauen in die Tech­nologie stärken sollen.

Je höher die poten­ziellen Gefahren einer Anwen­dung, desto höher sind die Anfor­derungen. Für Regel­ver­stöße sind hohe Strafen vorge­sehen. Es ist welt­weit der erste Rechts­rahmen dieser Art für Anwen­dungen auf Grund­lage maschi­nellen Lernens. In den kommenden Jahren dürften solche Anwen­dungen im Alltag immer wich­tiger werden - zugleich gibt es jedoch ethi­sche Bedenken, die Maschinen könnten unaus­gewo­gene oder gefähr­liche Entschei­dungen treffen.

Deshalb betonten EU-Kommis­sions­vize Margrethe Vestager und EU-Binnen­markt­kom­missar Thierry Breton (ehema­liger Chef von France Télécom/Orange) heute immer wieder ein wich­tiges Wort: Vertrauen.

"Bei künst­licher Intel­ligenz ist Vertrauen ein Muss und kein Beiwerk", stellt Vestager klar. Man könne das gesell­schaft­liche und wirt­schaft­liche Poten­zial Künst­licher Intel­ligenz nur dann schöpfen, wenn die Menschen darauf vertrauen könnten, dass die Risiken mini­miert seien. Bei der ersten Digi­tali­sie­rungs­welle sei Europa zwar nicht führend gewesen. Doch habe der Konti­nent alles, um die zweite Welle anzu­führen.

"Geht nach Europa"

Thierry Breton, EU-Kommissar für den Binnenmarkt, stellte einen EU-Ansatz für künstliche Intelligenz vor Thierry Breton, EU-Kommissar für den Binnenmarkt, stellte einen EU-Ansatz für künstliche Intelligenz vor
Foto: Picture Alliance - dpa
"Geht nach Europa", lud Breton Unter­nehmen ein, die KI nutzen wollen. Dort werde es eindeu­tige Vorgaben und somit recht­liche Sicher­heit geben. Zudem sei Europa der Konti­nent mit der größten Menge indus­tri­eller Daten, die Grund­lage für Künst­liche Intel­ligenz sind.

Mit "Künst­liche Intel­ligenz" werden meist Anwen­dungen auf Basis maschi­nellen Lernens bezeichnet, bei denen eine Soft­ware große Daten­mengen nach Über­ein­stim­mungen durch­forstet und daraus Schluss­fol­gerungen zieht. Sie werden schon jetzt in vielen Berei­chen unseres Lebens einge­setzt.

Zum Beispiel können solche Programme Aufnahmen von Computer-Tomo­grafen schneller und mit einer höheren Genau­igkeit als Menschen auswerten. Selbst­fah­rende Autos versu­chen so, das Verhalten anderer Verkehrs­teil­nehmer vorher­zusagen. Und auch Chat­bots oder auto­mati­sche Play­listen von Strea­ming­diensten arbeiten mit KI.

Spiel­regeln für KI sind notwendig

Ähnlich wie bei den Daten­schutz­regeln, die seit 2018 in der EU gelten und welt­weit Nach­ahmer fanden, will die EU-Kommis­sion auch beim Umgang mit Künst­licher Intel­ligenz globale Stan­dards setzen.

Doch müssen die EU-Staaten und das Euro­papar­lament nun erstmal über die Vorschläge verhan­deln. Es dürfte also noch einige Jahre dauern, ehe in der EU neue Regeln gelten. Bis dahin dürfte es - wie schon bei der Daten­schutz­grund­ver­ord­nung - viel Lobby­arbeit geben.

Wirt­schaft hat Angst vor zu viel Rege­lung

Kriti­sche Stimmen kamen heute vor allem aus der Wirt­schaft. Iris Plöger vom Bundes­ver­band der Deut­schen Indus­trie sprach von "erheb­lichem Nach­bes­serungs­bedarf". So sei der Begriff der Hoch­risiko-KI-Systeme zu weit gefasst. "Indus­tri­elle Einsatz­felder von KI müssen vom Anwen­dungs­bereich der Verord­nung ausge­nommen werden", forderte Plöger. Sonst werde die Entwick­lung inno­vativer KI-Anwen­dungen womög­lich schon im Ansatz geschwächt.

Claus Oetter vom Verband Deut­scher Maschinen- und Anla­genbau warnte: "Vor allem kleine und mitt­lere Unter­nehmen werden sich zukünftig häufiger fragen, ob sie nicht lieber auf Künst­liche Intel­ligenz in ihren Programm­codes verzichten, weil der Verwal­tungs­auf­wand zu groß wird." Auch Oetter befürchtet, dass Inno­vationen ausge­bremst werden könnten. Der Vorsit­zende des KI-Bundes­ver­bands Jörg Bienert forderte, dass der Begriff KI in den Vorschlägen der EU-Kommis­sion klarer defi­niert werden müsse und sich auf selbst­ler­nende Systeme konzen­trieren sollte.

Immerhin: Unter­nehmen in Deutsch­land haben einer reprä­sen­tativen Umfrage des Digi­tal­ver­bandes Bitkom zufolge immer weniger Vorbe­halte gegen den Einsatz von KI. Demnach gaben 62 Prozent der befragten Verant­wort­lichen an, dass sie darin eher eine Chance sehen - vor einem Jahr waren es noch 55 Prozent. Doch nutzen bislang nur verhält­nis­mäßig wenige Unter­nehmen, acht Prozent der Befragten nämlich, Künst­liche Intel­ligenz auch tatsäch­lich.

"Wer erkannt hat, wie wichtig Künst­liche Intel­ligenz schon heute ist und insbe­son­dere künftig sein wird, sollte jetzt inves­tieren", sagte Bitkom-Präsi­dent Achim Berg. Die neuen Regeln sollten sich auf Hoch­risiko-Anwen­dungen konzen­trieren. "Wir brau­chen in Deutsch­land und Europa sichere und vertrau­ens­wür­dige KI - wir dürfen aber nicht alle und alles über einen Kamm scheren."

Bundes­jus­tiz­minis­terin Chris­tine Lambrecht (SPD) nannte den Vorstoß der EU-Kommis­sion einen "zentralen Wegweiser" im Umgang mit KI. "Der Vorschlag rückt die Grund­rechte der Euro­päe­rinnen und Euro­päer in den Mittel­punkt: Der Schutz vor Diskri­minie­rung und vor wahl­loser Massen­über­wachung sind wich­tige rote Linien, die wir für den Einsatz von KI setzen müssen."

Regeln für "Hoch­risiko Anwen­dungen

Konkret legte die EU-Kommis­sion vor allem Regeln für soge­nannte Hoch­risiko-Anwen­dungen vor. Dazu zählt die Behörde unter anderem kriti­sche Infra­struktur wie den Verkehrs­sektor, Programme zur Perso­nal­ein­stel­lung oder die Bewer­tung der Kredit­wür­dig­keit. So soll etwa verhin­dert werden, dass eine Soft­ware bestimmte Bewer­bungen bei Einstel­lungs­ver­fahren ohne objek­tiven Grund aussor­tiert.

Bei derlei Anwen­dungen will die EU-Kommis­sion deshalb hohe Anfor­derungen etwa an die Daten stellen, mit denen die Programme gefüt­tert werden. Zudem müssen Entschei­dungen im Nach­hinein nach­voll­ziehbar sein, und es muss eine mensch­liche Aufsicht geben.

Kein chine­sisches Sozi­alkredit-System

Auch die biome­tri­sche Iden­tifi­kation im öffent­lichen Raum, etwa an Bahn­höfen, soll nur in engen Grenzen und nach behörd­licher Geneh­migung erlaubt werden - etwa bei der Suche nach einem vermissten Kind oder einem drohenden Terror­anschlag. Tech­nolo­gien wie das Sozi­alkredit-System aus China, das regel­kon­formes Verhalten belohnt und Fehl­ver­halten bestraft, soll gänz­lich verboten werden.

Von den aller­meisten KI-Anwen­dungen - beispiels­weise Spam-Filter oder Compu­ter­spiele - gehen nach Ansicht der EU-Kommis­sion jedoch keine oder nur geringe Risiken aus. Für sie sollen daher deut­lich weniger strenge oder gar keine Auflagen gelten. Bei Chat­bots müssen die Nutzer beispiels­weise darüber infor­miert werden, dass sie nicht mit einem Menschen kommu­nizieren.

Wer sich in das Thema einlesen möchte, die EU Kommis­sion hält eine FAQ (in deut­scher Sprache) bereit.

Mehr zum Thema Smartphone-Software