Würden Sie sich von einem Papageien behandeln lassen?

Würden Sie sich von einem Papageien behandeln lassen?

Na gut, ich will die Frage präzisieren: Es geht nicht um einen normalen Papagei, sondern um einen, der jahrelang im Büro eines Neurochirurgen gelebt und dessen sämtliche Gespräche – persönlich, per Telefon und per Videokonferenz – mit seinen Kolleginnen und Kollegen angehört hat. Nach und nach hat er mitbekommen, was sie sagen, wie sie Sätze aufbauen, und wie sie auf die Fragen, Widersprüche und Kritik anderer Beteiligter reagieren. Mit seinem über Jahre angesammelten Schatz an Wörtern, Floskeln und Sätze geht er selbstbewusst in eine Facharztprüfung, hält irgendwann Vorträge und stellt Diagnosen.

Einer seiner Nestgenossen ist auf gleiche Art in der Finanzwelt tätig und verwaltet Investment Fonds, ein dritter verfasst Kochzepte, andere konstruieren Brücke, Flugzeuge und vieles mehr.

Das Szenario mag jetzt unheimlich erscheinen, aber es ist durchaus damit vergleichbar, was gegenwärtig unter dem Titel ChatGPT von OpenAI (und vergleichbarer Systeme anderer Hersteller) durch die Medien zieht.

ChatGPT hat unzählige Texte „gelesen“, statistisch ausgewertet (welche Wörter folgen oft aufeinander, wie sind Sätze aufgebaut, wie werden Sätze formuliert, die auf Menschen freundlich wirken) und kann jetzt so formulieren, dass es wie von Menschen verfasst erscheint. ChatGPT erzielt ohne Zweifel textliche Ergebnisse, die noch vor kurzer Zeit unvorstellbar waren. Aber das war „er“(„sie“, „es“?) da von sich gibt, ist – auf zugegebenermaßen hohem sprachlichen Niveau – ohne jegliches Verständnis des Inhaltes. Ganz so wie die Angehörigen anderer Berufsgruppen, die in geschliffener Sprache nicht aussagen.

Und dennoch – oder vielleicht gerade deshalb? – liest man heute Sätze wie „ChatGPT schafft US-Mediziner-Examen“, ChatGPT besteht Jura-Prüfung in Minnesota“, und manche freuen sich schon darauf, dass ChatGPT künftig ihre Hausaufgaben erledigt und Seminararbeiten schreibt.

Diese Entwicklung muss überaus kritisch betrachtet werden.

Schon haben erste Forscher nachgewiesen, dass ChatGPT zum Beispiel bei einfachen arithmetischen Rechenoperationen falsche Ergebnisse liefert. Wieso? Ganz einfach, das System hat keine Ahnung, dass es sich hier um eine arithmetische Operation handelt, sondern es ist darauf angewiesen, dass es die Lösung dieser Aufgabe an anderer Stelle gesehen hat.

Nach dem ersten Hype reagieren die Hersteller inzwischen zunehmend zurückhaltend bis panisch, nachdem die Chatbots in Konversationen ausfällig wurden, Menschen bedroht oder schlicht und einfach die Unwahrheit verbreitet haben.

Die Hersteller sind dabei, ihre Chatbots weiterzuentwickeln und investieren hierfür gigantische Geldbeträge. Aber ob sie so die Systeme zu zu Neuromedizinern, Fondsmanagern, 3-Sterne-Köchen oder Ingenieuren werden?

Ich würde jedenfalls die Eingangsfrage mit einem glatten „Nein“ beantworten.

10 Kommentare zu „Würden Sie sich von einem Papageien behandeln lassen?

  1. Lieber Georg,

    Du hast wunderbar anschaulich und verständlich – und in deutsch – beschrieben, was ich auch in diesem Artikel finde:

    https://dl.acm.org/doi/10.1145/3442188.3445922

    Vielen Dank!!! Ich versuche auch dauernd, es den Leuten in meiner Umgebung zu erklären…

    Ganz herzliche Güsse aus Bern,

    Christina

  2. Lieber Georg,

    Du hast wesentliche Inhalte dieses Artikels wunderbar verständlich und anschaulich und in Deutsch beschrieben: https://dl.acm.org/doi/10.1145/3442188.3445922

    Vielen Dank! Ich habe es auch schon so vielen Leuten wie möglich versucht zu erklären 🙂

    Ganz herzliche Grüsse aus Bern,

    Christina

  3. Systeme wie ChatGPT & Co. und ihre weiterentwickelten Nachfolger werden uns in die und in der Zukunft begleiten – daran dürfte kaum jemand zweifeln. Ob sie letztlich nützen (also „gut“ sind) oder schaden (also „schlecht“ sind), liegt an der Kompetenz, Sorgfalt und Verantwortung der Menschen, die sie einsetzen. Gifte können tödlich wirken oder in ärztlicher Hand Krankheiten heilen, Waffen können zur Jagd, zur Verteidigung oder als Mord- und Kriegswerkzeug benutzt werden.

    Solange Menschen verantwortlich und ethisch bewusst kontrollieren, wozu und wie die Systeme weiterentwickelt und eingesetzt werden, können wir uns auf den Fortschritt freuen. Inkompetenz und mangelnde Verantwortung wären gefährlich.

    Momentan ist mein Eindruck, dass mit der Umgang mit ChatGPT & Co. oft inkompetent und unverantwortlich ist – wenn z.B. seine „Ergebnisse“ kritisch übernommen werden und eine Grundlage für wichtige Entscheidungen bilden.

  4. Lieber Georg,
    zunächst würde ich gerne zwischen chatGPT und GPT-4 unterscheiden. letzteres system besteht die meisten Prüfungen, kostet aber 20€ im Monat. Ich nutze es und bin absolut fasziniert, wie tiefgründige Analysen das System durchführt.
    Ob es mathematische Induktionsbeweise sind oder ein Vergleich von Goethes Faust und dem „Kalten Herz“ von Hauff, den Details von Strudelteig im Vergleich zu chinesischen Nudeln, jedes Mal war die Antwort wesentlich überzeugender, als das, was ich auf die Schnelle im Internet finde.
    Und zum Papagei: Ein Mensch lernt 20 Jahre nachplappern, bis er den Bachelor an der Hochschule bekommt. Die interne Struktur sind jeweils Neuronen.
    Und GPT-4 hat ein wesentlich besseres Gedächtnis und kann in allen Sprachen sprechen, weil es die Inhalte versteht und nicht einfach Worte generiert!
    Ich glaube, viele Menschen glauben immer noch an den Dualismus zwischen Geist und Körper, nein, ein Körper kann Geist haben, ob es ein biologischer oder ein elektronischer Körper ist. Trennen wir uns endgültig vom Dualismus.

    • Lieber Eduard, danke für den Kommentar. So sehe ich das auch.

      Der Mensch ist jetzt schon dabei, sich von der intellektuellen Überlegenheit zu verabschieden.
      Tiere bezeichnen wir im Übrigen auch als „klug“, ohne dass sie ein Bewusstsein hätten, ohne dass sie sich ihrer selbst bewusst sind. Früher oder später werden – im Potenzial – auch Maschinen Bewusstsein erlangen. Ob der Träger nun biologischer oder technologischer Natur ist. Wo ist der Unterschied, abgesehen von der Eitelkeit und seiner schier intrinsischen Hybris.
      Natürlich, neben den Chancen werden die Gefahren steigen. Doch das kennen wir schon von anderen Soziogenten: Den Menschen. Von einem Trump oder Bolsonaro möchte ich mich beispielsweise nicht in politischer Führung oder Klimapolitik unterrichten lassen.

      Es bleibt spannend. Und damit allen einen schönen Montagabend!
      Michael

  5. Der Text diskutiert das Thema der fortschreitenden Entwicklung von künstlicher Intelligenz, insbesondere von Chatbots wie ChatGPT von OpenAI, und ob diese in der Lage sind, komplexe menschliche Aufgaben wie das Schreiben von Facharbeiten oder sogar das Ersetzen von menschlichen Experten in bestimmten Bereichen zu übernehmen. Der Autor argumentiert, dass diese Entwicklung kritisch betrachtet werden muss und gibt einige Beispiele, wie Chatbots in der Vergangenheit fehlgeschlagen sind.

    Ein Kritikpunkt an diesem Text ist, dass er teilweise unscharf und ungenau ist. Zum Beispiel wird behauptet, dass ChatGPT „ohne jegliches Verständnis des Inhalts“ arbeitet, was nicht korrekt ist. ChatGPT ist in der Lage, auf der Grundlage von Mustern und statistischen Analysen eine Bedeutung in Texten zu erkennen, auch wenn es keine tiefergehenden Kenntnisse des Themas hat. Außerdem sollte erwähnt werden, dass Chatbots wie ChatGPT in der Lage sind, in bestimmten Bereichen, in denen menschliche Experten nicht verfügbar sind oder wo schnelle, genaue Antworten benötigt werden, nützlich sein können.

    Eine weitere Schwäche des Textes ist, dass er sich auf einige negative Beispiele konzentriert, wie Chatbots in der Vergangenheit falsche Ergebnisse geliefert oder Menschen beleidigt haben. Es sollte jedoch auch beachtet werden, dass viele Chatbots erfolgreich eingesetzt werden, um Benutzern in verschiedenen Bereichen wie Kundensupport, E-Commerce und Bildung zu helfen.

    Zusammenfassend lässt sich sagen, dass der Text einige wichtige Bedenken hinsichtlich der Entwicklung von künstlicher Intelligenz und Chatbots aufwirft, aber gleichzeitig einige Unklarheiten und einseitige Betrachtungsweisen enthält. Eine ausgewogenere Darstellung der Vor- und Nachteile von Chatbots wäre angebracht, um eine umfassendere Diskussion zu ermöglichen.

    • Danke für die Rückmeldung.

      Ich gebe zu, dass die Darstellung nicht die Absicht hatte, Chatbots wissenschaftlich ausgewogen und abschließend zu bewerten. Mit meiner plakativen Darstellung wollte ich vor allem dem gegenwärtigen Hype ein Gegengewicht bieten. Insbesondere bei „Verständnis für den Inhalt“ bin ich allerdings noch nicht überzeugt. Ich sehe bei Programmen nach wie vor kein „Verständnis“ – oder wie soll das konkret aussehen?

      Wenn ich vor allem negative Beispiele genannt habe, ist das unter dem Aspekt geschehen, dass dem vom Chatbot gegebenen Antwort oft nicht anzusehen ist, dass sie möglicherweise falsch ist. Hier wäre zumindest ein Disclaimer angebracht. So wie es heute oft in dem Medien dargestellt und von vielen Menschen aufgenommen wird, liefern Chatbots zuverlässig richtige Antworten. Da bin und bleibe ich skeptisch. Ohne Zweifel sind sinnvolle Einsätze wie von Ihnen beschrieben möglich, aber in kritischen Situationen muss der Einsatz ernsthaft abgewogen und die Risiken abgeschätzt werden.

      • Zuverlässige, korrekte Antworten bekommt man auch nicht von seinem Nachbarn. Insofern ist chatGPT genau so gut wie jeder andere Mensch der nach bestem Wissen und Gewissen antwortet.

        Bleibt also die Nützlichkeit der Antwort, die jeder für sich entscheidet.

        Bisher ist alles was mir chatGPT geantwortet hat sehr nützlich, kann mehr als mein Nachbar und das viel kostengünstiger und effizienter.

      • Es ist natürlich jedem / jeder überlassen, was er / sie glaubt bzw. für nützlich hält. Ich bin da nach einigen sehr falschen Antworten deutlich skeptischer als Sie.

    • Hallo Billy,

      >>Zum Beispiel wird behauptet, dass ChatGPT „ohne jegliches Verständnis des Inhalts“ arbeitet, was nicht korrekt ist.<<

      ich möchte gerne unterscheiden zwischen *verstehen* und *erfassen*.
      Für mich so aus, als ob KI-Systeme wie ChatGPT – bis dato! – Inhalte nicht verstehen.
      Dem gegenüber lässt sich der Begriff des "Erfassens" auf IT-Systeme anwenden.
      Vergleichen kann man das mit biologischen autarken Systemen, sagen wir Tieren, die unbewusst Handeln.
      Sie wenden Informationen an, ohne es zu *wissen* oder zu *verstehen*.
      Ich bin mir sicher, dass technische Systeme die Schwelle zum Bewusstsein eines Tages überschreiten werden.
      Aber für den Umgang mit derartigen Systemen, die sich an der Schwelle befinden, davor oder irgendwann soweit sein werden, wäre es aus meiner Sicht relevant, diesen Unterschied zu machen.

      Ich werde das demnächst bei der Denkfabrik der Integrata-Stiftung einbringen, wo mir derzeit die Definition von "Intelligenz" noch zu unscharf ist.

      Schönen Abend und liebe Grüße
      Micha