Direkt zum Inhalt springen
Vertrauen in Künstliche Intelligenz | Interview mit Univ.-Prof. Dr. Martin K.W. Schweer

Pressemitteilung -

Vertrauen in Künstliche Intelligenz | Interview mit Univ.-Prof. Dr. Martin K.W. Schweer

Interview mit Univ.-Prof. Dr. Martin K.W. Schweer von der Universität Vechta zum Thema Vertrauen und Künstliche Intelligenz. Er ist wissenschatlicher Leiter des Arbeitsbereichs Pädagogische Psychologie und der angegliederten Arbeitsstellen: Zentrum für Vertrauensforschung, sportpsychologische Beratungsstelle Challenges und Lehren Digital.

  1. Was bedeutet es, von Vertrauen in Künstliche Intelligenz zu sprechen?

    Vertrauen in Technologien wird im wissenschaftlichen Diskurs ganz verschieden betrachtet, in meinem Verständnis ist Vertrauen stets ein Phänomen des sozialen Miteinanders. Vertrauen in Technologien bezieht sich somit grundsätzlich auf die Menschen hinter den Technologien, das gilt auch für Künstliche Intelligenz. KI scheint für den Betrachter menschliche Züge anzunehmen, Dialoge zu führen und Fragen zu beantworten – Vertrauen meint in diesem Kontext, im Sinne einer kritischen Auseinandersetzung offen für die Potenziale von KI zu sein, zugleich ist Vertrauen aber stets mit dem Risiko des Missbrauchs verbunden. Technologien per se haben keine Handlungsabsicht, sie können allerdings in zuträglicher und hilfreicher, ebenso in schädigender Weise verwendet werden – und genau hierfür sind die Menschen hinter den Technologien verantwortlich. So steht derzeit etwa der Einsatz von KI in kriegerischen Auseinandersetzungen im öffentlichen Diskurs. Wenn also davon gesprochen wird, dass einem bestimmten KI-Modell vertraut wird, dann bezieht sich dieses Vertrauen auf das Unternehmen, das dieses Modell mit einem bestimmten Ziel entwickelt und trainiert hat, sowie auf dessen Umgang mit den Daten der Nutzer.

  2. Welche Bedingungen müssen Ihrer Meinung nach erfüllt sein, bevor überhaupt solch ein Vertrauen investiert werden sollte?

    Es geht stets um Vertrauen in die Menschen und die Organisationen, die KI-Modelle entwickeln und verwenden. Vertrauen ist dabei grundsätzlich nicht blind, es schließt also keineswegs die kritische Reflexion aus und sollte nicht leichtfertig vergeben werden. Vor der Entscheidung, Vertrauen zu schenken, steht insofern die Auseinandersetzung mit der Frage, zu welchem Zweck und wie ein spezifisches KI-Modell überhaupt trainiert wurde. So wird beispielsweise oftmals vergessen, dass es sich bei den großen generativen Sprachmodellen – auf einem solchen basiert ja auch Chat-GPT – um keine expliziten Wissensmodelle im Sinne der Wiedergabe wissenschaftlich geprüfter Erkenntnisse handelt, sondern um Modelle, die darauf optimiert sind, einen Text sprachlich korrekt zu vervollständigen. Auch muss man wissen, wie mit personenbezogenen Informationen verfahren wird, also ob diese etwa als Trainingsdaten verwendet werden. Ein Basiswissen im Bereich der Künstlichen Intelligenz ist meines Erachtens unabdingbar, um Chancen und Risiken realistisch einschätzen und darauf basierend eine bewusste Vertrauenshandlung eingehen zu können.

  3. Welche Rolle kommt hierbei den Unternehmen insbesondere im Hinblick auf Transparenz und Verständlichkeit zu? Gibt es eventuell aus Ihrer Sicht Möglichkeiten, Künstliche Intelligenz verständlicher oder transparenter zu machen?

    Die Unternehmen sind zur Transparenz dahingehend gefordert, wie ihre Modelle trainiert und welche Quelldokumente hierfür genau verwendet wurden. Ferner müssen die Unternehmen offen kommunizieren, wie mit den Eingabedaten der Nutzer umgegangen wird. Selbstverständlich handelt es sich beim maschinellen Lernen nicht um simple Prozesse, dennoch gilt, diese angemessen zu simplifizieren und das KI-Wissen in der Bevölkerung zu stärken. An den Universitäten sind wir ebenfalls gefordert, die KI-Kompetenzen von Lehrenden und Studierenden zu stärken. Beide Gruppen müssen mit den Funktionsweisen, Nutzungsmöglichkeiten und darauf aufbauend eben auch mit den Risiken verschiedener KI-Systeme vertraut gemacht werden.

  4. Sollte Künstliche Intelligenz Ihrer Meinung nach noch menschenähnlicher gestaltet werden?

    Diese Frage erfordert eine sorgfältige Abwägung. Einerseits kann eine menschen-ähnlichere Künstliche Intelligenz die Interaktion mit der Technologie intuitiver und angenehmer gestalten, andererseits birgt eine allzu menschenähnliche Gestaltung von KI-Systemen das Risiko, die Grenzen zwischen menschlichen und maschinellen Akteuren dergestalt zu verwischen, dass Nutzer am Ende nicht mehr im Bewusstsein haben, dass sie mit einer Technologie interagieren, die eben von einem Unternehmen mit ganz spezifischen Interessen entwickelt wurde. Es kommt also ganz entscheidend auf eine transparente Kommunikation an, Nutzende müssen sich stets darüber im Klaren sein, ob sie es mit einem Menschen oder einer Maschine zu tun haben, denn daran orientieren sich Erwartungshaltung und wahrgenommene Vertrauenswürdigkeit. Last but not least stellt sich im Bereich der Künstlichen Intelligenz die Frage, ob wir alles, was wir können, auch wirklich wollen. Denken Sie beispielsweise an digitale Chatbots oder Avatare von Verstorbenen, mit denen Hinterbliebene kommunizieren können. Solche Entwicklungen müssen auf jeden Fall ethisch hinterfragt werden, so etwa hinsichtlich des sogenannten „Digital Afterlife“ von Verstorbenen und dessen Auswirkungen auf die Trauerarbeit.

Themen

Regionen

Kontakt

Friedrich Schmidt

Friedrich Schmidt

Pressekontakt Presse- und Öffentlichkeitsarbeit +49 4441 15577
Katharina Genn-Blümlein

Katharina Genn-Blümlein

Pressekontakt Leitung Marketing & Kommunikation +49. (0) 4441.15 488
Timo Fuchs

Timo Fuchs

Pressekontakt Wissenschaftskommunikation
Philip Kreimer

Philip Kreimer

Pressekontakt Social-Media +49. (0) 4441.15 279

Zugehörige Meldungen

Universität Vechta

www.uni-vechta.de

Universität Vechta

Driverstraße 22
49377 Vechta
Deutschland