Künstliche Intelligenz: Es wird konkret

Author: Michael Vogel

17. Mai 2023 Digitalisierung / Innovation

Mit Algorithmen à la ChatGPT kommt die Nutzung Künstlicher Intelligenz (KI) in eine neue Phase. Umso wichtiger werden Prüfung und Sicherheit.

Microsoft macht es. Google macht es. Meta macht es. Chinas Internetriese Baidu auch: Chatbots, ausgestattet mit KI, gelten als das derzeit große Ding in der Technologiebranche. Im Mittelpunkt der Berichterstattung steht ChatGPT, ein sogenanntes Sprachmodell, ein trainierter Algorithmus, der mit Menschen Konversationen führen kann. Hinter ChatGPT steht das Start-up OpenAI, das wiederum massiv von Microsoft finanziell unterstützt wird.
ChatGPT kann Liedtexte oder Gedichte schreiben oder einen Zeitungsartikel. Es kann Computerspiele programmieren oder kausale Schlüsse aus Bildern ziehen. Der Mensch muss dafür dem KI-Chatbot nur wenige Informationen liefern – den Rest erledigt der Algorithmus allein.
Einfacher Zugriff auf riesige Informationsmengen
Solche mächtigen Sprachmodelle sind nicht über Nacht vom Himmel gefallen. In den vergangenen Jahren sind sie vielmehr von vielen entwickelt und dadurch kontinuierlich besser geworden. Jede Verbesserung für sich allein war eher gering. In dieser Hinsicht sind KI-Chatbots wie ChatGPT also kein Durchbruch, nichts grundlegend Neues. Was neu ist und was nun auch für so viele Debatten sorgt, ist, wie sich die gigantischen Informationsmengen des Internets damit erschließen lassen: Menschen können nun auf intuitive und natürlich-sprachliche Weise darauf zugreifen – nicht mehr durch das Eintippen von mehr oder minder passenden Suchbegriffen, um dann aus den Informationsbruchstücken der Ergebnisse selbst ein Gesamtbild zu erstellen. Die dafür notwendigen Rechenkapazitäten stehen durch Werkzeuge wie ChatGPT quasi allen zur Verfügung.
Microsoft und Google haben zum Beispiel angekündigt, in ihre jeweiligen Office-Programme nach und nach KI-Unterstützung einzubauen. So will Microsoft in Programmen wie Word, Excel oder Teams einen „Copilot“ genannten Assistenten integrieren. Bei Google bekommen die Workspace-Programme Docs, Slides und Gmail entsprechende KI-Unterstützung. Auch bei der Nutzung der jeweiligen Suchmaschinen der beiden Konzerne sollen noch stärker KI-Helferlein mitwirken. Ein mögliches Beispiel für KI-Unterstützung am Computerarbeitsplatz wäre, wenn aus einem Text-Dokument automatisiert eine Präsentation entstünde.
Mit KI-Chatbots die Arbeit schneller erledigen
„Algorithmen wie ChatGPT sind letztlich einfach Werkzeuge, die es ermöglichen, die Arbeit schneller zu erledigen“, sagt Xavier Valero, Leiter des Bereichs „AI & Advanced Analytics“ bei DEKRA. „Allerdings müssen sich Menschen und Unternehmen immer fragen, welche Risiken und Gefahren mit der Nutzung von KI einhergehen können und diese dann entsprechend abwägen.“ Monotone Aufgaben seien daher auch nicht per se automatisierbar.
Die Chancen sind jedenfalls vielfältig und noch gar nicht überschaubar. Zahlreiche – oft auch ungeliebte – Routineaufgaben lassen sich dank KI automatisieren. Muster in sehr großen Datenmengen zu erkennen, ist für Menschen extrem schwierig, für eine KI nicht. Eine KI wird auch nicht müde, wenn sie den ganzen Tag gearbeitet hat. Quasi in jeder Branche gibt es inzwischen Ideen, was sich durch KI verbessern oder gar erstmals angehen ließe.
Ethische und gesellschaftliche Risiken durch KI
Die Kehrseite der Medaille sind ethische und gesellschaftliche Risiken, die sich die Menschheit mit solchen Algorithmen einhandelt. Die meisten der aktuell öffentlich diskutierten KI-Systeme sind so angelegt, dass ihre Entscheidungsfindung nicht mehr nachzuvollziehen ist. Das kann zum Problem werden, etwa bei medizinischen, finanziellen oder rechtlichen Fragen. Solche Algorithmen können zudem diskriminieren, weil die Trainingsdaten diskriminierend waren. Sie können prinzipiell nicht zwischen wahr und falsch unterscheiden. Sie haben keinen ethischen Kompass. Sie können sensible Daten unerwünscht verarbeiten.
Um es am Beispiel der automatisch erzeugten Präsentation zu verdeutlichen: Dass dadurch keine vertraulichen Informationen in der Präsentation auftauchen und der KI für eine womöglich noch weitergehende Nutzung zur Verfügung stehen, liegt weiterhin in der Verantwortung des Menschen.
Wie jede Technologie lassen sich solche Algorithmen auch missbrauchen: für Desinformationskampagnen mit nahezu perfekt gefälschten Texten, Bildern oder Videos. Auch bei Cyberangriffen werden KI-Werkzeuge künftig eine unrühmliche Rolle spielen. Menschen können aufgrund der eloquenten Kommunikation mit KI-Algorithmen zudem glauben, es mit einem Menschen zu tun zu haben – und dem Algorithmus dadurch mehr als vielleicht angebracht vertrauen. Nicht zuletzt ist völlig unklar, welche Folgen der breite Einsatz von KI für den Arbeitsmarkt hätte – wie bei jeder neuen Technologie.
DEKRA setzt auf verantwortungsvollen Einsatz von KI
„DEKRA will deshalb dazu beitragen, dass solche Algorithmen sicher und verantwortungsvoll eingesetzt werden“, sagt Valero. „Mit unserem Know-how bringen wir hierfür gute Voraussetzungen mit.“ Der Bereich „AI & Advanced Analytics“ hat in den vergangenen Jahren seine Kompetenzen in Big Data, KI, Cyber Security und Algorithmen drastisch ausgebaut. „Derzeit laufen bei uns 13 KI-Projekte für das eigene Unternehmen und für Kunden, unsere aktuelle Roadmap sieht weitere 70 Projekte vor“, sagt Valero.
Ein Beispiel für ein bereits abgeschlossenes Projekt, bei dem dieselbe Technologie wie bei ChatGPT zum Einsatz kam, war die Analyse von Prüfberichten einer Chemiefabrik. Die KI analysierte dazu den Gesamtbestand der existierenden Berichte, um wichtige Fragen zu klären. Etwa: Wann war der Mensch die Ursache für einen Vorfall, wann die Technik?
In einem weiteren Projekt ging es um die Anonymisierung von Videodaten, die von Überwachungskameras an öffentlichen Plätzen aufgenommen wurden. Der Algorithmus hatte zunächst die Aufgabe, sensible Daten in den Videobildern zu erkennen, etwa Autokennzeichen oder die Gesichter von Passanten. Im nächsten Schritt musste die KI diese kritischen Bereiche in jedem Einzelbild unkenntlich machen. Da die Autos und Menschen in Bewegung waren, musste der Algorithmus ihnen über die gesamte Videosequenz folgen können. Möglich war dies dank Methoden des maschinellen Lernens.
„Darüber hinaus wirken wir weltweit in Arbeitsgruppen mit, die Standards für den Test und die Zertifizierung von Algorithmen erarbeiten“, sagt DEKRA Experte Valero. „Immer mehr Länder arbeiten an einer umfassenden Regulierung, etwa die EU, die USA, Japan oder Großbritannien. Besonders die EU nimmt hier eine Vorreiterrolle ein.“ Dort wird der sogenannte AI Act derzeit zwischen Kommission, Parlament und Mitgliedsstaaten verhandelt. Mit seiner Verabschiedung ist frühestens Ende dieses Jahres zu rechnen. Daran schließt sich dann die Umsetzungsphase in nationales Recht an. Der existierende Entwurf sieht eine Einteilung der Algorithmen in verschiedene Risikokategorien vor. Damit einhergehen sollen abgestufte Transparenz-, Qualitäts- und Risikomanagementpflichten. Bei der praktischen Umsetzung in den Unternehmen wird die Prüf- und Sicherheits-Expertise von DEKRA gefragt sein.