Eine Übersicht und ein Vergleich der GPT-Modelle 1-4, Amazons GPT-55X und mehr.
Read in English (Auf Englisch lesen).
Künstliche Intelligenz (KI) hat in den letzten Jahren nicht nur Inhalte generiert, sondern auch Debatten, Begeisterung, Kritik und Innovationen in zahlreichen Branchen angestoßen. Eine der bekanntesten und meistdiskutierten KI-Technologien ist GPT, das oft fälschlicherweise mit ChatGPT gleichgesetzt wird.
In diesem Artikel erfahren Sie, was GPT ist, wie es funktioniert und wofür es verwendet wird. Zudem vergleichen wir verschiedene GPT-Modelle – vom ursprünglichen Transformer bis hin zur neuesten und fortschrittlichsten Version im OpenAI-Katalog: GPT-4.
GPT steht für „Generative Pretrained Transformer“ und bezeichnet eine Familie großer Sprachmodelle (LLMs), die natürliche Sprache verstehen und erzeugen können.
Lassen Sie uns das Akronym aufschlüsseln:
Generativ: Generative KI ist eine Technologie, die Inhalte wie Text und Bilder produzieren kann.
Pretrained (Vortrainiert): Vortrainierte Modelle sind gespeicherte Netzwerke, die bereits mithilfe eines großen Datensatzes trainiert wurden, um ein Problem zu lösen oder eine bestimmte Aufgabe zu erfüllen.
Transformer: Ein Transformer ist eine Deep-Learning-Architektur, die eine Eingabe in eine andere Art von Ausgabe umwandelt.
Das Akronym veranschaulicht, was GPT tut und wie es funktioniert. GPT ist eine generative KI-Technologie, die bereits vorab trainiert wurde, um Eingaben in unterschiedliche Ausgabeformate umzuwandeln.
Sehen Sie sich dieses Video an, um mehr über die Nutzung eines GPT-Modells zu erfahren.
GPT-Modelle sind universelle Sprachvorhersagemodelle. Anders ausgedrückt handelt es sich um Computerprogramme, die Informationen analysieren, extrahieren, zusammenfassen und anderweitig nutzen können, um Inhalte zu generieren.
Einer der bekanntesten Anwendungsfälle für GPT ist ChatGPT, eine Chatbot-App mit künstlicher Intelligenz (KI), die auf dem GPT-4-Modell (früher GPT-3.5) basiert und natürliche Konversation nachahmt, um Fragen zu beantworten und auf Eingabeaufforderungen zu reagieren. GPT wurde 2018 vom KI-Forschungslabor OpenAI entwickelt. Seitdem hat OpenAI drei Versionen des GPT-Modells offiziell veröffentlicht: GPT-2, GPT-3 und GPT-4.
Der Begriff „großes Sprachmodell“ wird zur Beschreibung jedes groß angelegten Sprachmodells verwendet, das für Aufgaben im Zusammenhang mit der Verarbeitung natürlicher Sprache (NLP) entwickelt wurde. GPT-Modelle sind eine Unterklasse von LLMs.
GPT-1 ist die erste Version des Sprachmodells von OpenAI. Es folgte auf Googles Veröffentlichung Attention is All You Need aus dem Jahr 2017, in der Forscher das erste allgemeine Transformer-Modell vorstellten. Googles revolutionäres Transformer-Modell dient als Rahmen für Google Search, Google Translate, Autocomplete und alle großen Sprachmodelle (LLMs), einschließlich Gemini und Chat-GPT.
GPT-2 ist das zweite transformerbasierte Sprachmodell von OpenAI. Es ist Open Source, unbeaufsichtigt und mit über 1,5 Milliarden Parametern trainiert. GPT-2 wurde speziell entwickelt, um die nächste Textsequenz nach einem gegebenen Satz vorherzusagen und zu generieren.
Die dritte Iteration des GPT-Modells von OpenAI ist mit 175 Milliarden Parametern trainiert – ein deutlicher Fortschritt gegenüber dem Vorgängermodell. Sie umfasst OpenAI-Texte wie Wikipedia-Einträge sowie den Open-Source-Datensatz Common Crawl. Insbesondere kann GPT-3 Computercode generieren und die Leistung in Nischenbereichen der Content-Erstellung, wie beispielsweise dem Storytelling, verbessern.
Spätere Versionen von GPT-3 sind als GPT-3.5 und GPT-3.5 Turbo bekannt.
GPT-4 ist das neueste Modell von OpenAI. Es handelt sich um ein Large Multimodal Model (LMM), das sowohl Bildeingaben als auch Text verarbeiten kann. Diese Iteration ist das fortschrittlichste GPT-Modell und zeigt in verschiedenen Benchmarks im beruflichen und akademischen Bereich eine Leistung auf menschlichem Niveau. Zum Vergleich: GPT-3.5 erreichte bei einer simulierten Anwaltsprüfung die unteren 10 Prozent der Prüfungsteilnehmer, während GPT-4 zu den oberen 10 Prozent gehörte.
Neuere Iterationen des GPT-4-Modells umfassen GPT-4 Turbo, GPT-4o mini und GPT-4o.
Amazons Generative Pretrained Transformer 55X (GPT55X) ist ein Sprachmodell, das auf der GPT-Architektur von OpenAI basiert und von Amazons Forschern weiterentwickelt wurde. Zu den wichtigsten Aspekten von GPT-55X gehören die enorme Menge an Trainingsdaten, die Fähigkeit, Kontextabhängigkeiten und semantische Beziehungen abzuleiten, sowie die autoregressive Natur (die Nutzung vergangener Daten zur Information zukünftiger Daten).
Lassen Sie uns genauer untersuchen, wie generative vortrainierte Transformatoren funktionieren:
GPTs sind eine Art neuronales Netzwerkmodell. Zur Erinnerung: Neuronale Netzwerke sind KI-Algorithmen, die Computern beibringen, Informationen wie ein menschliches Gehirn zu verarbeiten. Beim Vortraining wird ein neuronales Netzwerk anhand eines großen Datensatzes, beispielsweise Text aus dem Internet, trainiert. In dieser Phase lernt das Modell, das nächste Wort in einem Satz vorherzusagen und Grammatik und Kontext zu verstehen.
Transformatoren basieren auf Aufmerksamkeitsmechanismen, einer Deep-Learning-Technik, die menschliche Aufmerksamkeit simuliert, indem sie Eingabeinformationen nach Wichtigkeit ordnet und priorisiert. Sowohl in unserem Gehirn als auch in Machine-Learning-Modellen helfen uns Aufmerksamkeitsmechanismen, irrelevante Informationen herauszufiltern, die uns von der eigentlichen Aufgabe ablenken können. Sie erhöhen die Modelleffizienz, indem sie Kontext und Relevanz aus den Beziehungen zwischen Datenelementen ableiten.
GPT erfasst die Bedeutung von Wörtern kontextbezogen. Kontextuelle Einbettungen für ein bestimmtes Wort erzeugen dynamische Darstellungen, die sich je nach umgebenden Wörtern im Satz ändern.
Nach dem Vortraining optimiert GPT seine Fähigkeiten für bestimmte Aufgaben wie das Schreiben eines Aufsatzes oder das Beantworten von Fragen und wird darin kompetenter.
Um die Verwendung von ChatGPT praktisch zu üben, beginnen Sie mit dem einstündigen Kurs Nutzen Sie generative KI als Ihren Denkpartner, der von Jeff Maggioncalda, CEO von Coursera, gehalten wird.
Trotz der Komplexität von Sprachmodellen sind ihre Schnittstellen relativ einfach. Wenn Sie ChatGPT schon einmal verwendet haben, werden Sie die Interaktion zwischen Texteingabe und -ausgabe intuitiv und benutzerfreundlich finden. Sie können GPT-4 sogar über chat.openai.com ausprobieren, sofern Sie über ein OpenAI-Konto verfügen. Um Ihr eigenes Modell zu trainieren oder mit der GPT-4-API (Application Programming Interface) zu experimentieren, benötigen Sie ein OpenAI-Entwicklerkonto (hier anmelden). Nach der Registrierung und Anmeldung erhalten Sie Zugriff auf den Playground, eine webbasierte Sandbox, in der Sie mit der API experimentieren können.
Wenn Sie Chat-GPT Plus abonniert haben, können Sie über chat.openai.com auf GPT-4o zugreifen. Beachten Sie, dass es eine Nutzungsbeschränkung gibt, die von der Nachfrage und der Systemleistung abhängt.
GPT-2 ist weniger benutzerfreundlich als seine Nachfolger und benötigt eine beträchtliche Rechenleistung. Es ist jedoch Open Source und kann in Verbindung mit kostenlosen Ressourcen und Tools wie Google Colab verwendet werden. Um auf das GPT-2-Modell zuzugreifen, starten Sie mit diesem GitHub-Repository. Sie finden dort einen Datensatz, Versionshinweise, Informationen zu möglichen Nachteilen und Experimentier-Themen, an denen Open-AI interessiert ist.
Tauchen Sie tiefer in die Anwendungsfälle, Vorteile und Risiken des GPT-Modells ein, indem Sie sich für den Onlinekurs für Fortgeschrittene Generative vortrainierte Transformatoren (GPT) anmelden. Oder erfahren Sie in der Spezialisierung Microsoft Copilot: Ihr alltäglicher KI-Begleiter, wie Sie die Leistungsfähigkeit von KI nutzen können, um Ihre Produktivität im gesamten Microsoft-Ökosystem zu revolutionieren.
Redaktion
Das Redaktionsteam von Coursera besteht aus äußerst erfahrenen professionellen Redakteuren, Autoren ...
Diese Inhalte dienen nur zu Informationszwecken. Den Lernenden wird empfohlen, eingehender zu recherchieren, ob Kurse und andere angestrebte Qualifikationen wirklich ihren persönlichen, beruflichen und finanziellen Vorstellungen entsprechen.