Wissen für Alle - 13. Oktober 2024
Kann man einer "Künstlichen Intelligenz" vertrauen? Oder ist schon die Frage ziemlich sinnlos?
Menschen vertrauen anderen Menschen gegenseitig, beispielsweise vertrauen Kunden darauf, von einem Verkäufer oder einem Arzt gut beraten und behandelt zu werden. Menschen vertrauen auch einseitig Institutionen, so etwa auf die Kompetenz einer Klinik oder Hochschule, oder auf die Produktqualität einer etablierten Marke. Diese Vertrauensformen sind im Alltag absolut nötig.
Was bedeutet es jedoch für ein "Vertrauensverhältnis", wenn der Dialog mit Menschen, das Steuern eines Fahrzeugs oder einer Maschine der "Künstlichen Intelligenz" überlassen wird? Soziales Vertrauen ist nicht technisch darstellbar, es basiert immer auf einer menschlichen und inter-subjektiven Kommunikation, weswegen sich die Frage stellt: "Kann man einer Künstlichen Intelligenz" vertrauen? Oder ist schon die Frage ziemlich sinnlos?
„Ab wann ist eine KI vertrauenswürdig?“ überschrieb Prof. Dr.-Ing. Georg Rainer Hofmann seinen Powerpoint-Vortrag, den er am Sonntag, 13.10., in der Walter-Reis-Stiftung hielt. Beide Räume waren voll besetzt, das Thema treibt die Menschen offensichtlich um. Wer sich intensive Informationen und Spekulationen über mögliche neue Anwendungsfelder der KI erwartet hatte, könnte nach einer guten Stunde enttäuscht gewesen sein. Alle die substantielle, kluge Ausführungen über die Chancen und Risiken von KI auf philosophischer Basis erhofften, und das waren an diesem Abend wohl alle, gingen klüger und problembewusster nachhause. Hofmann, 1961 in Rimhorn im Odenwald geboren, wo er auch heute lebt, ist Informatiker und seit 1996 Professor für Datenverarbeitung und Unternehmensführung an der TH Aschaffenburg. Er hat zuvor fünf Jahre als Abteilungsleiter am Fraunhofer-Institut in Darmstadt gearbeitet und 2011 mit Wolfgang Alm das „Information Management Institut (IMI) gegründet und den IMI-Verlag.
Klar, anregend und differenziert war das, womit er durch anschauliche Folien unterstützt 60 Minuten lang die gespannte Aufmerksamkeit der mehr als 100 Zuhörer fesselte. Dass er auch Philosophie studiert hat und seit vier Jahren der Gemeinsamen Ethikkommission der Hochschulen Bayerns angehört, war eine gute Voraussetzung, dass es an diesem Abend um einen oft eher vernachlässigten, aber um so wichtigeren Aspekt bei der Beschäftigung mit KI ging.
Seine Ausführungen in konzentrierter Zuspitzung – und auch da immer noch komplexer und auführlicher als es sonst in Artikeln zu finden ist: Hofmann sprach von einer „Blackbox“, denn wenn eine KI Informationen verbreite, bleibe der Weg dahin fast immer ein Geheimnis. Nur konsequent also, dass sich das Forschungsforum für KI (DFKI) in Kaiserslautern ein großes Ziel gesetzt hat: KI transparenter machen und verlässliche Qualitätsstandards entwickeln.
Dass Hofmann die Themenfrage für ziemlich skurril hält und lieber andere differenzierte Fragen schätzt, wurde schnell klar: Die zentrale Frage laute: Braucht eine KI unser Vertrauen und gibt es ein Institutionenvertrauen für ein IT-System? Man muss die rasante Entwicklung kennen: Gab es in Pkws 1989 gerade mal bis zu fünf Elektromotoren, sind es heute 40 bis 100, die natürlich im Auto menschliche Entscheidungen teilweise übernehmen oder blockieren.
Bei Hofmann war durchaus Skepsis zu spüren, wenn er den „Hype um die KI“ wie New Economy, asset-backed Securities, Blockchain oder Kryptowährung präsentierte. Er stellte die Fragen, die das breite Spektrum der aktuellen Diskussion spiegeln: Muss diese KI reguliert werden, damit sie unschädlich ist, oder darf sie nicht reguliert werden, um keine Innovationen zu behindern? Mit seiner philosophischen Schulung trennte er klar zwischen Vertrauen in Menschen oder Institutionen, also einer Beziehung, und Vertrauen in Prozesse oder Systeme, eine Eigenschaft.
Sein nur vermeintlich skurriler Kernsatz lautete: „Vertrauen ist gut, Kontrolle nicht besser sondern sehr teuer“ – und das belegte er an anschaulichen Beispielen. Besser sei es, die Signale des Verstehens für Vertrauensaufbau bei Personen und Institutionen sensibel zu lesen. Musterbeispiel ist das „Duchenne-Lächeln“ als Vertrauensanbahnungssignal. Seine These: „Vertrauen-Können ist angeboren, Vertrauen wird nicht erarbeitet und erlernt“ wurde durchaus kontrovers diskutiert, ist für ihn aber nicht verhandelbar.
Nicht strittig: Ein persönliches Vertrauen zu IT-Systemen erscheint einigermaßen absurd. Dass man in Maschinen Menschliches hineinprojiziert, wie das Angela Merkel auf dem fast schon ikonischem Foto beim Betrachten eines kleinen Pflegeroboters getan hat, widerlegt das nicht – eher im Gegenteil.
Der Referent, bei dem humorvolle und lockere Einschübe und Formulierungen das Zuhören erfreulicherweise sehr erleichterten und die Komplexität des Themas besser verstehen ließen, warnte explizit davor, Maschinen zu überschätzen, zu überhöhen. Das führt er mit einem kleinen Beispiel vor über die Grenzen von Maschinen beim Erkennen von Humor und Sprachspielen: „Wissen Sie, wie lange Krokodile leben?“ Die Lösung gibt es am Ende des Artikels. Das Fazit Hofmanns: „ Computer verstehen nichts!“ Ein Verständnis basiert nämlich auf einem sozialen Kontext – der Diskos von Phaistos aus dem 17.Jh v.Chr. mit seinen bis heute ungelösten Rätseln bot ihm einen Beleg dafür, dass das selbsterklärende Dokument ohne Basis nicht existiert. Das vertiefte er noch durch einen Blick auf die goldfarbenen Plaketten an den Raumsonden Pioneer 10 und 11, mit denen angeblich außerirdischem Leben Wissen über das Leben auf der Erde vermittelt werden sollte.
Bei der Analyse der Situation blieb Hofmann nicht stehen. Ihm geht es auch um einen Weg, Akzeptanz von IT-Systemen durch Institutionenvertrauen und Vertrauensersatz zu befördern. Dazu lohnt sich der Klick auf die höchst anregende und informative Mailadresse mit wichtigen Publikationen: www.mainproject.eu/studien/ Dort findet man auch Material zum Thema Institutionen- und Markenvertrauen – vor allem dann, wenn vertrauensersetzende Maßnahmen (CBMs) in der Lebensrealität zu aufwändig wären. Der Referent listete handfeste, nutzbare Tipps auf, was einem Markenvertrauen schadet – z.B. Anonymität, Verbreiten falscher oder das Verschweigen relevanter Informationen, auch fehlende Disziplin oder mangelnde Termintreue. Aber er nannte aber auch förderliche Faktoren wie transparente Nachfolge- und Vertretungsregelungen, eine Historie der Zuverlässigkeit und der Akzeptanz der Produkte. Insgesamt zentral sind für ihn offene Kommunikation, große Transparenz, Verständnis für Belange und Situation der Kunden und die Bereitschaft, auch nicht-normative Korrekturen anzubieten, also Kulanz, zu zeigen.
Sein zentraler Satz lautet: „Normative Maschinen müssen den Menschen dienen“ – klare Anthropozentrik, nicht zu verwechseln mit der Philosophie des Anthropozentrismus. Konkret heißt das: Maschinen müssen durch Menschen ausgeschaltet werden können, es müssen Korrekturmöglichkeiten bestehen, denn das sind wichtige vertrauensersetzende Maßnahmen. Eindeutige Forderung: Die digitale Welt muss der analogen Welt dienen. Hofmanns Credo: Vor dem Hintergrund einer Digitalen Ethik sollte eine Inbetriebnahme von (neuen) Automaten ohne eine systematische Planung der CBM-Optionen „OFF“ und „ESC“ nicht möglich sein dürfen. Auf den Punkt gebracht: Es kann gemäß dem Kritischen Rationalismus nicht entscheidend sein, wie man eine fehlerfreie und sinnvolle Automatisierung konstruiert, viel wichtiger sei die Frage, wie fehlerhafte Automaten quasi ‚umgangen‘ werden können, z.B. durch nicht-normative Kulanz. Am Schluss stand ein Satz von Albert Einstein: „Man muss die Welt nicht verstehen, sondern sich nur darin zurechtfinden.“ Der Vortrag im WRI hat wie viele andere seit 2018 sicher dazu beigetragen, das ein bisschen leichter zu machen. Und die – menschliche – Lösung des „Krokodilrätels“: Lange Krokodile leben genau so wie kurze.
Heinz Linduschka