Verantwortungsvolle Nutzung von Generative AI

Verantwortungsvolle Nutzung von Generative AI
  • Artikel
  • 6 Minuten Lesezeit
  • 26 Mai 2023

Generative AI Modelle wie ChatGPT bieten im Unternehmenskontext zahlreiche Anwendungspotenziale, wie zum Beispiel das Erstellen, Zusammenfassen oder Übersetzen von Texten oder das Schreiben von Programmiercode. Es gehen aber auch einige Risiken mit der Anwendung von solchen Programmen einher.

Kommende Regulierungen sollen diesen Risiken entgegenwirken und die verantwortungsvolle Anwendung von KI sicherstellen.

Die Frage nach genauen Handlungsempfehlungen für Unternehmen, die KI schon jetzt nutzen wollen, bleibt jedoch offen.

Aus diesem Grund fassen wir die wichtigsten Aufgabenbereiche zusammen, mit denen sich Unternehmen beschäftigen sollten, um die Risiken von KI mitigieren zu können und bestmöglich von den Potenzialen der Technologie zu profitieren.

Ihr Experte für Fragen

Hendrik Reese
Partner für KI Transformation bei PwC Deutschland
E-Mail

Generative AI liefert großes Potenzial, ist aber mit Risiken verbunden

Insbesondere seit der Veröffentlichung von ChatGPT durch Open AI werden die Themen Künstliche Intelligenz und Generative AI intensiv wie nie zuvor diskutiert. ChatGPT ist ein sogenanntes Large Language Model (LLM), welches es Nutzer:innen ohne technische Vorkenntnisse ermöglicht, die Potenziale Künstlicher Intelligenz vielfältig zu nutzen. Die unzähligen Anwendungsszenarien des Modells, wie zum Beispiel das Generieren und Zusammenfassen von Texten oder das Erstellen von Programmiercode, vereinfachen den Arbeitsalltag, kommen aber nicht ohne Herausforderungen. So können Programme wie ChatGPT fehlerhafte Antworten generieren oder „halluzinieren“.

Das liegt daran, dass LLMs stets versuchen, Antworten auf gestellte Fragen zu liefern, selbst dann, wenn sie nur über begrenzte Informationen verfügen. Da aktuelle LLMs sehr gut darin sind, die menschliche Sprache zu imitieren und logisch zu formulieren, ist es für Nutzer naheliegend, den Aussagen der Modelle zu vertrauen. Außerdem können durch die Verwendung von Generative AI ungewollt sensible Informationen verbreitet werden, was das Beispiel eines Mitarbeiters eines großen Technologieunternehmens verdeutlicht. Dieser hatte internen Code und andere zu schützende Informationen in ChatGPT überführt, wodurch diese nun zur Datenbasis des Modells gehören und damit potenziell für andere zugänglich sind.

Fragt man ChatGPT selbst nach Risiken hinsichtlich der Nutzung von ChatGPT, erhält man folgende Antworten:

Verzerrungen

Wie jedes Modell für maschinelles Lernen kann auch ChatGPT für Verzerrungen anfällig sein, die sich in seinen Antworten widerspiegeln können. Verzerrungen können durch die Daten entstehen, die zum Trainieren des Modells verwendet wurden, sowie durch das Design und die Implementierung des Algorithmus.

Ungenauigkeit

Auch wenn ChatGPT im Allgemeinen sehr gut darin ist, Antworten zu generieren, die so klingen, als wären sie von einem Menschen geschrieben worden, ist es nicht perfekt. Es kann vorkommen, dass es ungenaue oder unpassende Antworten generiert, was zu Missverständnissen oder anderen Problemen führen kann.

Missbrauch

ChatGPT könnte von Einzelpersonen oder Gruppen missbraucht werden, die versuchen, Fehlinformationen zu verbreiten, Cybermobbing zu betreiben oder andere schädliche Aktivitäten zu unternehmen. Dies unterstreicht die Notwendigkeit einer verantwortungsvollen Nutzung und Überwachung dieser Technologie.

Datenschutz

Wenn sensible Informationen mit ChatGPT geteilt werden, besteht das Risiko, dass diese Informationen kompromittiert oder an Dritte weitergegeben werden könnten. Es ist wichtig, bei der Nutzung von ChatGPT oder jeder anderen Technologie geeignete Maßnahmen zum Schutz der Privatsphäre der Nutzer zu ergreifen.

Geistiges Eigentum

Die Trainingsdaten, die zum Trainieren von ChatGPT verwendet werden, könnten möglicherweise geschütztes geistiges Eigentum enthalten, wie z.B. vertrauliche Geschäftsinformationen oder Geschäftsgeheimnisse. Wenn diese Daten durchsickern oder missbraucht werden, könnte dies den Ruf des Unternehmens schädigen und zu rechtlichen und finanziellen Konsequenzen führen.

Urheberrecht

Es ist wichtig zu beachten, dass der von ChatGPT generierte Text möglicherweise die Rechte am geistigen Eigentum anderer verletzt, wenn er urheberrechtlich geschütztes oder markenrechtlich geschütztes Material enthält. Wenn Sie zum Beispiel ChatGPT verwenden, um einen Text zu erstellen, der Inhalte aus einem urheberrechtlich geschützten Buch oder Artikel enthält, könnten Sie die Rechte des Autors verletzen.

Die Risiken verdeutlichen, dass der Einsatz von Generative AI besonderer Aufmerksamkeit bedarf, um eine sichere und vertrauenswürdige Anwendung zu gewährleisten.

Die Regulierung von Generative AI kommt, aber wird alleine nicht ausreichen

In den aktuellen Diskussionen zur Mitigierung der Risiken von Generative AI rückt besonders die Frage nach einer angemessenen Regulierung in den Vordergrund. Im Mittelpunkt steht dabei die kommende KI-Verordnung der Europäischen Union, der EU AI Act, welcher KI-Systeme zukünftig basierend auf ihrer jeweiligen Risikokategorie regulieren soll. Dabei wird insbesondere die Frage diskutiert, ob ChatGPT als Hochrisiko-KI einzustufen ist.

Unabhängig von der KI-Regulierung wurde unter den bestehenden Datenschutzregeln ChatGPT in Italien zeitweise verboten. Hohe Wellen hat auch der Vorschlag einiger KI-Experten geschlagen, der vorsieht, KI-Entwicklungen zu pausieren, bis ausreichende Sicherheitsstandards und regulierende Maßnahmen in Kraft treten. Dabei stellt sich die Frage, ob ganzheitliche Verbote oder die zeitweise Pausierung eine angemessene Lösung darstellen. Im internationalen Wettbewerb würde ein rein europäisches Verbot bedeuten, den Anschluss zu verlieren, da die USA und China bereits heute Vorreiter auf dem Gebiet sind und ihren Vorsprung weiter ausbauen könnten.

Die Technologie „richtig“ zu nutzen ist also das Gebot der Stunde: Es stellt sich die Frage, wie wir die Innovation richtig nutzen und chancenorientiert bewusste Risiken eingehen, um im globalen Innovationswettbewerb zu bestehen. Mehr als Verbote benötigen Unternehmen daher Richtlinien und Leitplanken, die einen innovationsfördernden, gleichzeitig aber auch verantwortungsvollen Umgang mit Generative AI ermöglichen.

Sie haben Fragen?

Kontaktieren Sie unseren Experten

Unternehmen brauchen konkrete Lösungen, um Risiken bei der Nutzung von Generative AI zu mitigieren

Für Unternehmen ergeben sich einige Handlungsbedarfe hinsichtlich der Anwendung von Generative AI. Folgende Punkte sollten Unternehmen dabei mindestens in Betracht ziehen, um von den Potenzialen profitieren zu können, ohne dabei Risiken aus den Augen zu verlieren.

Definition von Vorgaben und Richtlinien

Unternehmen sollten konkrete Vorgaben und Richtlinien zur Nutzung von Generative AI definieren. Beispielsweise mit Blick auf die Unternehmensstrategie, den Umgang und vor allem das Erkennen von Deep Fakes, oder in welchen Unternehmensbereichen und für welche Zwecke (beispielsweise zur Textgenerierung oder -zusammenfassung, zur Übersetzung, im Kundenservice oder Überarbeitung von Code) die Anwendung solcher Systeme zulässig sein soll. Dabei empfiehlt es sich, die Nutzung von Generative AI auf Basis eines risikobasierten Ansatzes zu bewerten, wobei mindestens die folgenden Bewertungskriterien berücksichtigt werden sollten:

  • Urheberrecht: Kann die Verwendung des Outputs für den jeweiligen Anwendungsfall zu urheberrechtlichen Unsicherheiten führen?
  • Transparenz und Erklärbarkeit: Welche Relevanz haben (fehlende) Transparenz und Erklärbarkeit für die Nutzung von Generative AI für den jeweiligen Anwendungsfall?
  • Datenschutz: Besteht die Gefahr, sensible Daten durch die Nutzung des KI-Systems offenzulegen? Werden die Input Daten beispielsweise zu Trainingszwecken durch das KI-System gespeichert und wiederverwendet?
  • Qualität des Output: Es sollte bestimmt werden, ob die Güte des Outputs für den Einsatzzweck ausreicht.
  • Missbrauchsgefahr: Besteht die Möglichkeit, das KI-System zu anderen als den gedachten Einsatzzweck zu verwenden? Könnte dies negative Auswirkungen für das Unternehmen, den Anwender oder Dritte haben?
  • Haftung & Reputation: Welche Auswirkung hat die Nutzung von Generative AI hinsichtlich der Unternehmensreputation? Wird die KI beispielsweise extern eingesetzt und könnte zu negativen Kundenerfahrungen führen? Inwieweit würde die Organisation für Zwischenfälle haftbar gemacht werden?

Schulung und Sensibilisierung von Nutzern

Es ist essentiell, die eigenen Mitarbeiter umfassend zu schulen und sowohl für Potenziale als auch Risiken (Reputation, Rechtsfragen, Vertrauen von Kunden, Sicherheit, Training und Wartung) von KI zu sensibilisieren. Des Weiteren sollten Mitarbeiter über die Möglichkeiten zur Qualitätssteigerung, wie beispielsweise des Prompt Engineering, geschult sein, um eine bestmögliche Nutzung zu ermöglichen und generierte Ergebnisse zu verbessern. Außerdem sollten Weiterbildungsmöglichkeiten hinsichtlich Schwachstellen des Systems angeboten werden, um zu gewährleisten, dass Nutzer beispielsweise die Notwendigkeit zur unabhängigen Verifizierung des generierten Outputs (Stichwort “Halluzination” des KI-Systems) verstehen. Es ist zudem zu klären, inwieweit sensible Daten in das System überführt werden dürfen. Besteht keine Garantie seitens des Anbieters, dass die eingegebenen Daten nicht weiterverwendet werden (bspw. zu Trainingszwecken), sollte das den Mitarbeitenden vermittelt werden. Dieser Umstand könnte im Umkehrschluss auch bedeuten, dass Generative AI für besonders sensible Anwendungsbereiche nicht genutzt werden soll.

Klärung von rechtlichen Fragen

Neben den bereits erläuterten Risiken, ist ein weiteres zentrales Problem bei der Verwendung von Generative AI die Klärung der Frage nach dem Urheberrecht. Da solche Systeme häufig keine Quellenangaben zu den von ihm bereitgestellten Inhalten liefern, ist insbesondere zu klären, inwiefern sichergestellt werden kann, dass die generierten Inhalte nicht gegen das Urheberrecht verstoßen. Daher empfehlen wir Unternehmen explizit, den Nutzungsrahmen und die Verwendung der durch KI generierten Ergebnisse für die jeweiligen Anwendungsfälle zu definieren.

Bereitstellung des Services

Die Bereitstellung der KI-Systeme sollte unter der Berücksichtigung der Risiken des jeweiligen Systems nach klar definierten Vorgaben erfolgen. Eine Möglichkeit der Bereitstellung besteht beispielsweise darin, Premium-Accounts mit unternehmenseigenen Instanzen bereitzustellen, bei welchen der Basisalgorithmus einem Feintuning zum Training für die unternehmensspezifische Nutzung unterzogen wird. Falls notwendig, sollte als letzte Instanz auch das Blockieren von Anwendungen und Seiten für Mitarbeiter in Betracht gezogen werden. Beispielsweise, falls bei der Nutzung ungeklärte urheberrechtliche Bedenken bestehen.

Follow us

Contact us

Hendrik Reese

Hendrik Reese

Partner, PwC Germany

Tel.: +49 1517 0423-201

Hide