Multimedia

GPT-4 ist da – das bringt das neueste Update

Bilder interpretieren, erweiterte Funktionen und komplexere Fragen: ChatGPT-4 ist das neueste Update des Chatbots –  es soll menschlicher werden.

Der neueste KI-Streich: GPT-4 soll in allen Belangen den Vorgänger übertreffen.
Der neueste KI-Streich: GPT-4 soll in allen Belangen den Vorgänger übertreffen.
REUTERS

Der Chatbot-Hype dauert immer noch an und sorgt nun für neuen Diskussionsstoff. OpenAI stellt mit GPT-4 eine neue Version der Künstlichen Intelligenz vor. Sie soll mehr Funktionen bieten, effizienter interpretieren und ein erweitertes Sprach-Modell nutzen. Wir fassen die größten Änderungen in aller Kürze und verständlich zusammen.

ChatGPT: Weshalb ein Update?

ChatGPT basiert auf sogenannten "Language Models", sprich: Es basiert auf einer Technologie, um verständliche, auf uns Menschen angepasste Sprache zu nutzen. So können wir mit dem Chatbot reden und Konversation führen. Mit weiteren Updates soll dieses Sprachmodell samt KI noch genauer werden und das bisher Gelernte verinnerlichen.

Und jetzt kommt also GPT-4?

Der laut OpenAI "neuste Meilenstein im maschinellen Lernen" ist GPT-4. Es soll ein multimodales Model sein. Das heißt, dass nicht nur Text als Kommunikationsform mit der KI verwendet werden kann, sondern in diesem Fall auch Bilder. "GPT-4 ist zuverlässiger, kreativer und in der Lage, viel differenziertere Anweisungen als der Vorgänger zu bearbeiten", schreibt OpenAI.

Ein Beispiel: In einem ersten Test von OpenAI schaffte GPT-4 die Anwaltsprüfung mit Bravour. Die Resultate waren im Schnitt besser als 90 Prozent aller angehenden Anwälte. Das vorherige Modell schaffte komplexere Logik- und Mathe-Aufgaben wie an solchen Prüfungen viel weniger akkurat.

1/7
Gehe zur Galerie
    Wie suchen wir in Zukunft im Netz? Diese Frage hat Google nun beantwortet.
    Wie suchen wir in Zukunft im Netz? Diese Frage hat Google nun beantwortet.
    Unsplash
    Wie genau kann die KI nun Bilder interpretieren?

    GPT-4 kann neben Text- auch Bildeingaben akzeptieren. Diese visuellen Anfragen, seien es Fotos, Grafiken oder sogar lustige Memes, kann die KI mit Text interpretieren und auswerten.

    Ein Beispiel: Dieses folgende Bild wird vom Nutzer mit der Frage "Was ist ungewöhnlich an diesem Bild?" hochgeladen. GPT-4 antwortet: "Das Ungewöhnliche an diesem Bild ist, dass ein Mann Kleider auf einem Bügelbrett bügelt, während er auf dem Dach eines fahrenden Taxis befestigt ist."

    Die KI kann solche Bilder also auf eine detaillierte Weise interpretieren. Die neue Bildfunktion ist aber noch nicht öffentlich verfügbar.
    Die KI kann solche Bilder also auf eine detaillierte Weise interpretieren. Die neue Bildfunktion ist aber noch nicht öffentlich verfügbar.
    OpenAI
    Wird der Chatbot noch anpassungsfähiger?

    Laut OpenAI werden dank GPT-4 individuelle Systeme möglich, wie ChatGPT mit dir interagiert. Als Beispiel, wenn ein Schüler oder Student eine Gleichung lösen will, kann GPT-4 festlegen, dass der Chatbot nur wie ein Lehrer fungiert und dem Schüler hilft, selbst auf die Lösung zu kommen. So gibt die KI dann nur Tipps und korrigiert Lösungsschritte. So soll der Lernprozess gefördert werden.

    Ist GPT-4 nun perfekt und fehlerlos?

    Nein. Es wird festgehalten, dass GPT-4 weiterhin ähnliche Limitierungen hat wie der Vorgänger. Er wird also noch nicht 100 Prozent verlässlich sein und kann weiterhin falsche Informationen liefern. "Nutzer sollten beim Gebrauch weiterhin Sorge tragen, besonders bei schwierigen Kontexten", so OpenAI. Trotzdem konnten durch GPT-4 die Fehlerquoten signifikant reduziert werden. Außerdem reicht der Wissensstand von GPT-4 auch weiterhin nur bis September 2021.

    Kann ich es schon ausprobieren?

    Nicht ganz. GPT-4 wird in die Bezahlfunktion von ChatGPT, ChatGPT Plus, eingespeist und läuft dort bereits im Hintergrund. Jedoch können Bildanfragen noch nicht gestellt werden und komplexere Anfragen sind momentan noch begrenzt. ChatGPT-4 soll in den kommenden Monaten aber weiterhin optimiert und skaliert werden.