GPT-3 (Generative Pre-trained Transformer 3) ist ein maschinelles Lernmodell, das auf einer künstlichen neuronalen Netzwerktechnologie (Neural Network) basiert. Es wurde von OpenAI entwickelt und bietet Anwender*innen die Möglichkeit, natürlichsprachige Inhalte zu generieren, zu klassifizieren und zu interpretieren. GPT-3 verfügt über eine enorme Datenbank an vorverarbeiteten Texten, die es ermöglicht, auf vorhandene Daten zurückzugreifen und auf Basis dieser Daten neue Inhalte zu erzeugen. GPT-3 wird vor allem für Anwendungen wie automatisierte Textgenerierung, automatisiertes Textverständnis und maschinelles Lernen verwendet.

GPT-3 besteht aus 175 Milliarden trainierbaren Parametern und wurde auf einer großen Menge an Textdaten trainiert, darunter Bücher, Artikel, Webseiten und andere Textquellen. Das Modell kann verschiedene Sprachaufgaben ausführen, einschließlich Textgenerierung, Übersetzung, Textzusammenfassung und Fragenbeantwortung.

GPT-3 wird bereits in verschiedenen Anwendungen und Diensten eingesetzt, darunter Chatbots, virtuelle Assistenten, automatische Übersetzungen und Textgenerierung.