KI Kontroverse – Schon seit längerer Zeit sind die Fortschritte bei der Entwicklung Künstlicher Intelligenzen (KI) nicht mehr überschaubar. Denn nahezu sämtliche Entwickler in der ganzen Welt versuchen sich derzeit dabei zu überbieten, die bahnbrechendste Entwicklung auf den Markt zu bringen. Logisch, denn das Potenzial der Technologie ist unbestreitbar groß. Faktisch jeder will deshalb an der Spitze der Branche stehen. Damit der Wettbewerb jedoch nicht allzu sehr ausartet, fordern Experten nun eine Entwicklungspause. In dieser Zeit sollen internationale geltende Rechtsrahmen und Regeln aufgestellt werden, bevor KI Systeme weiter Anwendung finden. Doch wie realistisch ist das überhaupt und wie könnten die Regularien aussehen? Zu diesen Fragen liefert Maximilian Schmidt* einen Diskussionsbeitrag auf blogistic.net, der von HaJo Schlobach ergänzt wurde.

Spätestens seit Veröffentlichung von ChatGPT durch OpenAI (San Francisco, California) ist die KI Kontroverse weltweit voll entbrannt. Die einen sehen darin einen Durchbruch bei der weltweiten und unkomplizierten Nutzung von Wissen schlechthin wie etwa für Wissenschaft, Universitäten und Schulen, aber auch in Unternehmen selbst etc. Die anderen sehen darin einen Angriff auf die kulturelle und geistige Entwicklung der Menschheit schlechthin. Die Menschen hören auf zu denken. Aber auch Sicherheitsrisiken werden regelmäßig in der KI Kontroverse angeführt.
KI Kontroverse – Systeme greifen umfassend in bestehende Systeme ein
Die Befürchtungen sind nicht unbegründet, denn KI-Programmen ist es inzwischen möglich, realistische Fälschungen zu erstellen. In Kombination mit einem Text von beispielsweise ChatGPT können so haufenweise Fake News generiert werden. Anders ausgedrückt: Eine große Gefahr von Künstlicher Intelligenz besteht also darin, dass man Fälschungen immer weniger ausmachen kann und infolgedessen in der Verbreitung von Fake News. Auch wurde von einigen Entwicklern bestätigt, dass KI-Systeme teilweise kaum noch zu kontrollieren sind. Zudem ist es möglich, dass in einigen Bereichen in Industrie, Handel, im Dienstleistungssektor bis hin zur Steuerprüfung Beschäftigte durch KI ersetzt werden können. Die Arbeitslosenquote könnte also durch KI steigen.
KI Kontroverse – Wenn die Maschine beginnt, selbst und ständig zu denken
Ein Argument gegen KI in der laufenden KI Kontroverse ist jedoch, dass die Systeme selbständig zu denken beginnen und so dem Menschen irgendwann einmal in ihrer Denkleistung überlegen sein könnten. Und in der Tat: Die entwickeltsten KI-Systeme sind schon jetzt in der Lage zu eigenständigem (simuliertem) Denken wie beispielsweise Agents, welche von AutoGPT oder LangChain implementiert werden können. Deshalb können Maschinen, die mit KI bespielt worden sind, große Schäden anrichten, so die nicht unberechtete Befürchtung.
Temporärer Stop der Entwicklung gefordert

Aus diesen Gründen wird jetzt von einigen IT-Experten im Rahmen der KI Kontroverse eine temporäre Entwicklungspause für den Bereich KI gefordert. In dieser Zeit sollen dann die rechtlichen Rahmenbedingungen und die Regulierungen ausgearbeitet werden, welche die völlige Freiheit für den Einsatz von KI beschränkt und Anwender wie Entwickler gleichermaßen vor Missbrauch schützen. Erst wenn das erledigt ist, soll die KI-Entwicklung weitergehen. Die Organisation Future of Life hat einen Brief aufgestellt, in dem genau das verlangt wird. Zu den Forderern zählen u. a. Apple-Mitbegründer Steve Wozniak sowie Elon Musk.
Entwicklungspausen sind eher unrealistisch
Die Forderung Experten in Richtung einer Denkpause ist verständlich. Ddoch scheint diese global gesehen nicht sonderlich realistisch. Denn ein großes Problem besteht darin, dass KI-Systeme nicht nur in Unternehmen entwickelt und trainiert werden. Im Gegenteil: Ein Großteil der Entwicklungsarbeit findet vielmehr durch Privatpersonen, freischaffenden Entwickler und in Communities mit echten IT-Nurds statt. Diese Menschen in ihrem Drang einschränken zu wollen ist unter normalen Umständen unmöglich. Aber auch Unternehmen können wohl kaum zu einer Unterbrechung ihrer Arbeit gezwungen werden. Man müsste sie entweder ihrer Möglichkeiten berauben oder mit gewaltigen Sanktionsdrohungen belegen. Das würde somit massiv den Fortschritt hemmen und gleichzeitig zu Ausweichbewegungen dorthin führen, welche die Menschen nicht daran hindern das zu tun, was sie wollen.
Ein Regelwerk muss rasch her
Im Gegensatz zu der oben skizzierten Denkpause – um nichts anderes würde es sich letztlich bei einer erzwungenen Entwicklungspause handeln – ist die Erstellung eines Regelwerks weitaus realistischer. Es ist sogar notwendig, insbesondere für entwickelte, liberale Industrienationen. Nur so kann Missbrauch in jedweder Hinsicht, wenn nicht verhindert, sondern massiv eingeschränkt werden. Es ist darum sehr wahrscheinlich, dass es schon bald eine KI-Verordnung geben wird, an die sich alle Unternehmen halten müssen, die Künstliche Intelligenz einsetzen, aber auch entwickeln. Auf dem europäischen Markt kann eine KI-Verordnung beispielsweise ähnlich wie die Datenschutzverordnung aussehen. Das bedeutet, dass immer, wenn eine KI in Anwendung ist, auch das Regelwerk gilt. Die Umsetzung wird jedoch nicht leicht. Es muss nämlich erst einmal definiert werden, ab wann ein System als KI gilt.
KI Kontroverse – Die vier wichtigsten Regulierungsmaßnahmen
Der Einsatz künstlicher Intelligenz ist in Industrie, Handel, Dienstleistungssektor etc. übrigens kein neuartiges Phänomen, das jetzt mit ChatGPT aufkam. KI wird hier vielmehr schon seit über einem Jahrzehnt eingesetzt. Ihr Einsatzfeld war aber vergleichsweise begrenzt und hatte daher nur sehr regionale Auswirkungen, wie etwa in der Produktion oder im Lager. Erst mit dem Aufkommen des Smartphones, leistungsfähiger Rechner und IT-Netzwerke und mit ihnen des Internet of Things (IoT), wurde auch der Horizont für KI-Systeme dramatisch erweitert. Heute gehört KI insbesondere in der professionellen Anwendung zum Alltag und entwickelt nuneine ganz besondere Dynamik, wie etwa im Zuge von Industrie 4.0 und der digitalen Transformation. Darum werden Regelwerke umso dringlicher, weil es verstärkt etwa im Bereich des Datenschutzes, der Ethik und der Haftung zu Problemen kommt. In weiterer Folge fassen wir daher ein paar Eckpunkte zusammen, welche laufend in der KI Kontroverse genannt werden.
Ganz wichtig – Der Datenschutz
In Italien wurde ChatGPT aufgrund des fehlenden Datenschutzes kurzzeitig gesperrt. Personenbezogene Daten sind nämlich teilweise gespeichert und zum Training der KI verwendet worden. OpenAI hat jedoch schnell gehandelt und eine Datenschutz-gewährleistende Funktion eingeführt. So muss nun jeder Nutzer vorab entscheiden, ob die eingegebenen Daten zu Trainingszwecken genutzt werden dürfen oder nicht. Wenn man sich dagegen entscheidet, ist es möglich, die Chats zu löschen. Seit des Updates erlaubt Italien die Nutzung von ChatGPT wieder. Doch dieses Beispiel zeigt deutlich, dass auch die Gewährleistung des Datenschutzes keinesfalls außen vorgelassen werden darf. Persönliche Daten dürfen nicht einfach gespeichert und weitergetragen werden.
Diskriminierung durch KI geht gar nicht
Darüber hinaus werden im Rahmen der KI Kontroverse regelmäßig ethische Richtlinien eingefordert. So wurden in der Vergangenheit KI-Systeme nicht selten alleine nur mit Bildern trainiert, die weiße Menschen abbildeten. Menschen, die eine dunklere Hautfarbe haben, wurden daher von den KI-Systemen oftr gar nicht erst als Mensch identifiziert, sondern als Tier. Um dieser Form der Diskriminierung vorzubeugen, muss eine KI-Verordnung also unbedingt auch einen solchen Ethik-Kodex beinhalten. Das reicht aber nicht aus. Die Maschine darf grundsätzlich keinen Unterschied bei Menschen unterschiedlichster Hautfarbe, Geschlecht, Religionszugehörigkeit, politischer Gesinnung usw. Machen. Und wer Programmierungen vornimmt, welche nicht diskriminierungsfrei sind, muss sanktioniert werden.
KI und die Transparenz ihrer Algorithmen

Ebenfalls ist die Transparenz ein wichtiger Punkt, der in der KI Kontroverse regelmäßig angesprochen wird. Firmen müssen offenlegen, wie die Algorithmen ihrer KI-Systeme funktionieren. So kann überprüft werden, inwiefern eine KI-Entscheidungen trifft und trainiert wird. Dennoch ist die Offenlegung auch eine Frage von Geschäftsgeheimnissen, welche natürlich ein zu schützendes Rechstgut ist. Hier muss der Gesetzgeber einen Ausgleich zwischen den Interessen schaffen. Eine Lösung des Dilemmas wäre eine Behörde, der man entsprechende Informationen offenlegen muss, die aber unter Schweigepflicht steht. Die Funktionalität der Algorithmen könnte dann im Notfall und durch richterlichen Beschluss eingesehen werden.
KI und die Haftung
Und last but not least ist es notwendig, dass für alle möglichen Schäden, die eine KI anrichten kann, gehaftet wird. Der Entwickler, egal ob im Rahmen eines Unternehmens, einer Organisation oder eine Einzelperson, muss dafür geradestehen, wenn eine Person oder eine Personengruppe diskriminiert, der Datenschutz nicht gewährleistet oder eine falsche Information verbreiten worden ist. Jedes Unternehmen muss dafür Sorge tragen, dass das eigene KI-Programm bestmöglich trainiert wird. Doch selbst dann können Fehler passieren. Deshalb ist es unabdinglich, dass das Unternehmen in solchen Fällen haftet.
Fazit aus der KI Kontroverse
Die Gefahren, welche von der Künstlichen Intelligenz ausgehen, sind vielfältig und nicht zu unterschätzen. Deshalb wurde ein Brief durch die Organisation Future of Life aufgestellt, welcher eine Entwicklungspause sowie die Aufstellung von Regulierungsmaßnahmen fordert. Das durchzusetzen ist jedoch eher unrealistisch, da sämtliche Entwickler in der Welt de facto nicht kontrolliert werden können. Zumindest für Unternehmen sollte jedoch eine KI-Verordnung eingeführt werden. Diese muss vor allem die Punkte Datenschutz, Transparenz, Ethik und Haftung enthalten. Eine vernünftige Regulierung für den Bereich KI ist unerlässlich, denn sonst könnte die Technologie zu erheblichen gesellschaftlichen und wirtschaftlichen Schäden führen.
Autoren: Maximilian Schmidt ist CEO der CPI Technologies. Die Firma ist spezialisiert auf Softwareentwicklung in den Bereichen Künstliche Intelligenz, Blockchain und digitale Produktentwicklung. HaJo Schlobach ist Gründer der HJS MEDIA WORLD, Herausgeber und Chefredakteur.
futureoflife.org | cpitech.io/de | journalismus.at
Verwandte Themen
Interessenten find rund 50 Kommentare von Opinion Leadern aus Wirtschaft und Logistik in unserer Rubrik „Gast-Kolumne“ auf blogistic.net.
(Mehr zur HJS MEDIA WORLD finden Sie hier unter hjs-media-world.at)