Künstliche Intelligenz kann erkennen, aber nicht denken.

Im spannenden Interview mit Martin G. Wanko erläutert KI-Experte Roman Kern von der TU Graz anschaulich die Funktionsweise und beeindruckenden Fähigkeiten der künstlichen neuronalen Netzwerke.

Grundsätzlich unterliegt man mit dem Begriff KI einem Irrtum. Die KI kann nicht denken, sondern »nur« erkennen. Stimmt das soweit?

Ja, denken ist nicht der richtige Ausdruck, weil die KI (aktuell) nicht in der Lage ist, Schlüsse zu ziehen oder logische Zusammenhänge korrekt zu erfassen. Allerdings versteht die KI Konzepte, sogar menschliche Konzepte, und auch geographische und zeitliche Zusammenhänge und ist in der Lage, plausible Sätze zu bilden oder fotorealistische Bilder zu generieren.

Wie würden Sie einem Kind die KI erklären?

ChatGPT: Ein Computerprogramm hat das Internet gelesen und hat so gelernt, Sätze in menschlicher Sprache nachzubilden. Danach hat das Computerprogramm gelernt, auf menschliche Fragen passende Antworten zu generieren. Dabei kann dieses Computerprogramm sehr hilfreich sein, um schnell Antworten zu finden, allerdings kann man dem Computerprogramm nicht blind vertrauen, weil die Antworten oft nicht passen und teilweise frei erfunden sind.

Was ist der Unterschied zwischen weak AI und strong AI und wo stehen wir zurzeit?

Wir leben (noch) im Zeitalter der weak AI, d.h., der Output der AI ist assoziativ und die AI kann nicht planen oder Schlüsse ziehen, die über Gesehenes hinausgehen. Ob allerdings die aktuelle AI schon Anzeichen für eine strong AI oder Artificial General Intelligence (AGI) hat, ist unter Experten noch eine lebhaft geführte Diskussion.

Gerade gelesen: Schwache KIs sind Alexa und Siri. Starke KIs sind der Terminator und HAL (2001: Odyssee im Weltraum).

Genau, die aktuellen AI-Systeme planen nicht, sie »denken« nicht, und sie haben keinen speziellen Speicher dafür. Aktuell arbeiten AI-Systeme nach dem Prinzip Input/Output und machen keine pro-aktiven Handlungen. Inwieweit das kontinuierliche Training, das mit menschlichem Feedback durch die Benutzung dieser Tools gesammelt wurde, einen Feedback-Zyklus darstellt, ist ebenfalls noch eine offene Diskussion. Wir sehen, dass vermehrt Teile des Internets auch schon Texte von ChatGPT verwendet haben, die vermutlich dann wieder im Training von solchen AIs eingesetzt werden könnten.

Spätestens seit ChatGPT ist die KI in aller Munde. Dabei ist sie schon längst in unser Leben eingetreten, oder?

Ja, es gibt viele unterschiedliche AI-Systeme, die schon längst im Alltag angekommen sind. Beispiele dafür sind Empfehlungssysteme bei Online-Shopping Webseiten, oder auch die Tastatur am Handy, die Vorschläge macht, oder auch im industriellen Umfeld, in der die Nachfrage mittels AI vorhergesagt wird, oder die Produktion mit AI verbessert wird.

Wie wird die KI in absehbarer Zukunft unser Leben beeinflussen?

Es ist zu erwarten, dass »intelligente« Tools mehr und mehr Verbreitung finden und unsere Arbeits- und Privatwelt sukzessive bereichern werden. Vermutlich werden diese Veränderungen zum Großteil so stattfinden, dass wir das gar nicht explizit wahrnehmen werden. Beispielsweise bei Kameras in Handys ist inzwischen die Verarbeitung der Bilder fast so wichtig, wie das optische System.

Auf welche Entwicklung dürfen wir uns freuen?

Auf alle Entwicklungen, die unseren Alltag erleichtern, insbesondere jene digitalen Tools, die Routinetätigkeiten übernehmen. Denke da an die Erstellung von Mails, Dokumenten, Präsentationen und dem manuellen Übertragen von Daten.

Aber die Entwicklung hat rasant Fahrt aufgenommen und ist jetzt nicht mehr so schnell zu stoppen. Verstehen Sie als Wissenschaftler die Bedenken, die Teile der Bevölkerung haben?

Pauschal kann man hier keine Antwort geben. Nicht alle der Fragestellungen, die sich durch die KI ergeben, sind auch allen beteiligten Wissenschafterinnen klar. Beispielsweise wurde das Thema Copyright anfangs nicht beachtet. Auch die Implikationen durch automatische Entscheidungen durch die KI, beispielsweise Diskriminierung oder Schutz der Privatsphäre, sind selbst für Leute, die eng mit dem Thema vertraut sind, oft nicht ausreichend klar. Eine Umfrage unter namhaften Wissenschafterinnen hat ergeben, dass es auch keine Einigkeit gibt, welche Bedrohungen von der AI ausgehen. Einzig die Angst, dass die AI von wenigen Technologiefirmen dominiert wird, ist eine wiederkehrende Bedrohung.

Wenn drei Tageszeitungen die KI zu einem Thema befragen würden, laufen wir vermutlich Gefahr drei sehr ähnliche Texte zum Lesen zu bekommen, oder?

Ja, das ist generell ein Problem, dass dadurch auch Diversität leiden könnte. Auch wenn die Texte immer etwas anders sein können, ist die »Kreativität« der AI immer noch recht beschränkt. Ein weiteres Problem ist zudem, dass die KI (zum Beispiel ChatGPT) mit Daten aus dem Internet trainiert worden ist. Damit werden auch die Biases im Datensatz »mitgeerbt« (Cultural Bias, Groupthink Bias, etc.). Auch besteht die Gefahr des »Automation Bias«, d.h., dass hier der KI automatisch vertraut wird.

Eltern haben Sorge, dass in Zukunft die KI und nicht mehr ihre Kinder maturieren. Wie weit ist man mit KI-Erkennungsprogrammen?

Ja, der gesamte Bildungsbereich muss hier umdenken und die Ausbildung so gestalten, dass klar unterschieden werden kann zwischen der Leistung der Schülerinnen/Schüler/Studierenden und der KI. Letztendlich ist die KI ein Werkzeug, mit dem die Gesellschaft lernen muss umzugehen. Wenn dies nicht möglich ist, muss man sich überlegen, ob man die KI in der Ausbildung verbieten will. Technisch ist es aktuell nicht möglich, ausreichend zuverlässig zu erkennen, ob ein Text von der KI verfasst worden ist (und dann vielleicht noch manuell nachbearbeitet wurde), oder genuin von einem Menschen verfasst wurde.

Wird KI zu einer weiteren Fragmentierung der Gesellschaft führen? Da gibt’s bildungsferne Schichten, die den Anschluss verlieren könnten.

Es gibt Aussagen, bezogen auf den Arbeitsmarkt, in die Richtung: »Künstler mit KI werden Künstler ersetzen ohne KI«. Das zeigt, dass ein Umgang mit der KI möglicherweise ein Wettbewerbsvorteil sein könnte und Personen mit einer zu kritischen Haltung zur KI könnten hier negativ betroffen sein. So, wie bei vielen Themen in Bezug auf die Spaltung der Gesellschaft, ist auch hier Bildung und Information zumindest ein Teil der Lösung.

Immer wieder ist die Rede davon, dass wir in Österreich bezüglich der KI den Forschungsanschluss verlieren. Stimmt das?

In der Tat ist die Forschungsförderung in anderen Ländern höher und z.B. im Fall von China Teil einer längerfristigen Strategie. Ich bin selber aber nicht nur pessimistisch, weil ich ja auf der Universität unterrichte und sehe, wie begeistert und engagiert hier die Studierenden sind! Auch hoffe ich, dass es viele Unternehmen gibt, die erkannt haben, dass sie eine KI-Strategie brauchen und einfach nur zuwarten, was Google und Microsoft anbieten, keine positive Auswirkung auf den Wirtschaftsstandort haben kann.

An was forschen Sie gerade?

Meine Kollegen und ich forschen daran, die KI vertrauenswürdig zu machen. Das umfasst Themen, wie man private oder sensible Daten schützen kann, wie man vermeidet, dass die KI einzelne Personen oder Personengruppen diskriminiert, wie man die KI besser versteht und die Entscheidungen erklärbar macht. Auch steht in unserer Forschung der Mensch im Mittelpunkt, beispielsweise wie vorhandenes Wissen in die KI-Modelle einfließen kann, oder auch wie man Akzeptanz der KI erreichen kann. Daneben laufen noch kleine wissenschaftliche Arbeiten, beispielsweise arbeiten wir an einem Wasserzeichen für automatisch generierten Text und versuchen festzustellen, in welchen Situation die KI falsche Ergebnisse liefert.

Renommierte Forscher, die aus der KI-Entwicklung aussteigen, warnen vor einer unkontrollierten Entwicklung. Was gehört geregelt?

Hier sollte man zuerst einen Unterschied machen zwischen der unkontrollierten Entwicklung einerseits und der unkontrollierten Verwendung andererseits. Beide Aspekte wurden zuletzt diskutiert. Einerseits wurde von einem Moratorium gesprochen, um zuerst die bestehende KI besser zu verstehen, bevor man neue Entwicklungen startet. Andererseits stehen Initiativen, wie der AI-Act der Europäischen Union, in der aktuellen Fassung 4 Risikoklassen definiert werden und entsprechende Regularien vorgesehen sind. Der letztere Ansatz erlaubt eine Weiterentwicklung der Technologie, allerdings muss diese bestimmte Kriterien erfüllen.

Wann kann ein Interview wie dieses sinnerfassend von einer KI beantwortet werden?

Heute. Warum ich mir die Mühe gemacht habe, die Frage ganz ohne Hilfe der KI zu beantworten, weiß ich jetzt aber selber nicht.

Interview: Martin G. Wanko

0 replies on “Künstliche Intelligenz kann erkennen, aber nicht denken.”