ChatGPT vs. Gemini – Duell der KI-Giganten
Ich habe die KI-Tools von OpenAI und Google gegeneinander antreten lassen – hier ist mein Fazit
- Update: GPT-5 ist da!
- Auf einen Blick: ChatGPT vs. Gemini
- So habe ich Gemini und ChatGPT verglichen
- 1. Textaufgaben
- 2. Strategie und Deep Research
- 3. Coding
- 4. Multimodalität: Audio, Bild und Video
- Das gefällt mir an ChatGPT besser
- Das gefällt mir an Gemini besser
- ChatGPT vs. Gemini – was ist besser?
Der Mensch ist ein Gewohnheitstier. Und so stand für mich fest, dass ich als Heavy-User der ersten Stunde nie ein anderes KI-Tool so alltäglich verwenden würde wie ChatGPT.
Denkste! Eines Tages kam von unserem CTO die Ansage, dass wir ab sofort auf Google Gemini umsteigen sollen, damit unsere Daten in der Google-Bubble bleiben. Meine Begeisterung hielt sich bei diesen Worten in deutlich messbaren Grenzen.
Der Grund: De facto hatte ich mit Googles KI bereits Erfahrungen gemacht, als diese noch unter der Bezeichnung Bard lief und war von den damaligen Ergebnissen wenig angetan. Mit einer gesunden Portion Skepsis trat ich also nun den Neustart mit Gemini an.
Inzwischen sind einige Wochen ins Land gezogen und ich habe mir ein Bild davon machen können, was Gemini und ChatGPT so auf dem Kasten haben. Meine Eindrücke liest du in diesem Erfahrungsbericht.
Das Wichtigste in Kürze
- ChatGPT punktet mit übersichtlichen Antworten, starken Automatisierungen und der Möglichkeit zur Erstellung und Teilung von CustomGPTs.
- Gemini überzeugt durch tiefes Reasoning, realistischere Medienausgaben und die direkte Anbindung an das Google-Ökosystem.
- Bei kreativen, visuellen und strategischen Aufgaben liefert Gemini oft die detaillierteren Ergebnisse – wenn auch teils überladen.
- ChatGPT ist bei der Textstruktur oft klarer, schneller im Handling und bietet nützliche Export- und Bearbeitungsoptionen.
- Beide Tools sind leistungsfähig – die Wahl hängt stark von Präferenzen, Use Case und Systemumfeld ab.
Update: GPT-5 ist da!
Im August 2025 hat OpenAI sein neues Modell GPT-5 ausgerollt. Die offensichtlichste und größte Neuerung: Das Tool kommt mit nur noch drei Modellen aus. Ab sofort stehen dir in ChatGPT – je nach Preisplan – nur noch das Basismodel GPT-5, das erweiterte GPT-5 Thinking sowie das forschungsorientierte GPT-5 Pro zur Verfügung. Die Zeiten, in denen du aus einer verwirrend großen Anzahl unterschiedlicher Modelle auswählen musstest, sind damit vorbei. Von jetzt an entscheidet die KI im Hintergrund, welche Routinen für deine Anfragen am besten geeignet sind.
Ansonsten bewirbt OpenAI sein neues Modell als das bisher klügste, schnellste und nützlichste Modell der Unternehmensgeschichte. Ein schneller Test mit den Prompts aus diesem Artikel ergab aus meiner Sicht jedoch keine großen Qualitätssprünge. Sollte sich dieser Eindruck im Laufe der Zeit ändern, werde ich diesen Artikel noch einmal umfassend aktualisieren.
Falls du wissen willst, welche Neuerungen GPT-5 im Einzelnen bereithält, schau doch mal in meinen Testbericht zur neuen ChatGPT-Version.
Auf einen Blick: ChatGPT vs. Gemini
Kriterium | ChatGPT | Gemini |
|---|---|---|
OMR Reviews Score | 4,8 Sterne (71 Bewertungen) Stand: 18.07.2025 | 4,8 Sterne (3 Bewertungen) Stand: 18.07.2025 |
Verfügbare KI-Modell |
|
|
Am besten geeignet für | Alltägliche Aufgaben, Programmierung, allgemeine Konversation | Recherche, multimodale Aufgaben, Google-Ökosystem |
Kontextlänge | 128.000 Tokens (entspricht ca. 96.000 Wörter in englischer Sprache) | Bis zu 2 Millionen Tokens (entspricht ca. 1,6 Millionen Wörtern in englischer Sprache) |
Multimodalität | Text, Bilder, Audio, Video | Text, Bilder, Audio, Video |
Webzugriff (Research) | Aktiver Webzugriff für aktuelle Informationen | Direkter Google-Search-Zugriff |
Besondere Stärken | Kreativität, Coding, Konversation, Memory-Funktion | Lange Kontexte, Video-Analyse, Google-Integration |
Preise |
|
|
So habe ich Gemini und ChatGPT verglichen
Für meinen Test habe ich die kostenpflichtigen Versionen ChatGPT Plus und Gemini Pro miteinander verglichen. Beide bewegen sich in ähnlichen Preissphären und wurden von mir in insgesamt vier Kategorien getestet:
Textaufgaben: Zusammenfassung von Texten, Content-Erstellung und kreatives Schreiben
Strategie und Deep Research: Erarbeiten eines strategischen Konzepts
Coding: Erstellen eines Code-Snippets inklusive Ausführung
Multimodalität: Testen der Funktionen für Audio, Bild- und Videogenerierung
So nutzt du ChatGPT effektiv und individualisiert
Du startest gerade erst mit KI durch und willst wissen, wie man das meiste aus ChatGPT herausholt? Meine Kolleg*innen von OMR Education zeigen dir in ihrem ChatGPT Online-Seminar, wie es geht!
Bei der Bewertung der Ergebnisse habe ich je nach Kategorie auf unterschiedliche Kriterien geachtet:
Genauigkeit: Wie korrekt und verlässlich sind die gelieferten Antworten?
Kontextverständnis und Anpassbarkeit: Wie flexibel bzw. kontextsensitiv passt sich das Modell an Themenwechsel, Nutzervorgaben und längere Dialoge an?
Geschwindigkeit: Wie rasch löst die KI die Aufgabe?
Kreativität: Inwieweit generiert das Modell originelle, abwechslungsreiche oder innovative Lösungen und Inhalte?
Ausgabe: Werden die Ergebnisse strukturiert und nachvollziehbar ausgegeben?
Hinweis: Die hier präsentierten Vergleichsergebnisse basieren auf spezifischen Testbedingungen und Prompt-Formulierungen zum Zeitpunkt der Untersuchung. KI-Systeme entwickeln sich kontinuierlich weiter – Updates, Modell-Verbesserungen, Session-Historie und Algorithmus-Anpassungen beeinflussen die Performance und Ausgabequalität erheblich. Deine individuellen Ergebnisse können daher – auch bei identischen Prompts – von den hier dokumentierten Erkenntnissen abweichen.
1. Textaufgaben
Als KI-Textgeneratoren sollten Gemini und ChatGPT vor allem eines: mit Text umgehen können. In diesem Zusammenhang habe ich drei Funktionen getestet, nämlich das Zusammenfassen von Texten, die Content-Erstellung (z. B. für Blogartikel) sowie das kreative Schreiben. Eines gleich vorweg: Beide KIs waren hier ähnlich schnell, die Textausgabe hat bei allen Aufgaben nur wenige Sekunden gedauert.
Zusammenfassung schreiben
Die Aufgabe: Für diesen ersten, einfachen Test habe ich Gemini und ChatGPT gebeten, den Blogartikel meiner Kollegin Rebecca zum Thema SEO Keyword-Tracking kurz und prägnant zusammenzufassen. Frei nach dem Motto: tl;dr (too long, didn’t read).
Der Prompt: Fasse mir diesen Artikel in Form eines tl;dr zusammen, aus dem die wichtigsten Empfehlungen fürs Keyword-Tracking hervorgehen. Begrenze deine Antwort auf maximal 150 Wörter.
Verwendete Modelle: GPT-4o und 2.5 Flash
Die Ergebnisse
So sieht die Zusammenfassung von ChatGPT aus …
ChatGPT erledigt die Aufgabe souverän und gibt das Ergebnis in kurzen, übersichtlichen Bulletpoints aus. Die Detailtiefe ist meiner Ansicht nach gut und orientiert sich am generellen Aufbau des Artikels. Ein KI-typisches, etwas oberflächliches Fazit kann sich ChatGPT dann aber doch nicht verkneifen.
… und so bei Gemini.
Bei der Zusammenfassung von Gemini fällt sofort die Formatierung auf: Anstelle von Bulletpoints setzt Googles KI auf Fließtext. Persönlich empfinde ich das bei einem tl;dr als unpraktisch. Die Bulletpoints von ChatGPT sind einfach deutlich schneller zu erfassen und gezielt nach Informationen zu scannen. Auch der Inhalt selbst bleibt im direkten Vergleich oberflächlicher. Positiv zu bemerken: Beide KIs hielten sich an die vorgegebene Begrenzung und blieben unter 150 Wörtern.
Sieger: ChatGPT
Content-Erstellung
Die Aufgabe: Für den zweiten Test habe ich Gemini und ChatGPT darum gebeten, mir Marketing-Materialien für ein fiktives OMR Reviews-Event zu erstellen. Meine Idee sieht vor, dass verschiedene Influencer*innen, Gründer*innen und weitere Persönlichkeiten aus der SaaS-Szene eine Heißluftballon-Tour inklusive Verpflegung und Livemusik machen, auf der sie netzwerken können. Die Marketing-Materialien sollen aus einem kurzen Beschreibungstext für eine Landingpage, einer E-Mail-Einladung sowie Social-Media-Posts für LinkedIn und Instagram bestehen.
Der Prompt: Erstelle mir Marketing-Materialien für ein bevorstehendes Networking-Event von OMR Reviews. Zu dem Event wollen wir Entscheider*innen, Gründer*innen und Influencer*innen aus der SaaS-Szene einladen, um eine exklusive Heißluftballon-Tour zu machen. Es wird Livemusik und Verpflegung geben. Als Marketing-Materialien benötige ich einen knackigen Beschreibungstext für meine Landingpage, eine Vorlage für die E-Mail-Einladung sowie Social-Media-Material für LinkedIn- und Instagram-Posts. All das im typischen OMR Reviews-Stil.
Verwendete Modelle: GPT-4o und 2.5 Flash
Die Ergebnisse:
Normalerweise gehöre ich zu den KI-Nutzer*innen, die Inhalte inkrementell produzieren lassen, statt einen einzigen großen Prompt zu verwenden. Entsprechend gespannt war ich auch auf die Ergebnisse von ChatGPT und Gemini. Herausgekommen ist dabei Folgendes:
Die Ergebnisse von ChatGPT strotzen nur so vor Emojis, die Textvorschläge sind kurz und on point – aber auch ein wenig beliebig
Das Ergebnis von ChatGPT ist als Ausgangspunkt zwar hilfreich, benötigt aus meiner Sicht allerdings noch etwas Feinschliff. Der Grund: Viele Formulierungen klingen einfach zu floskelhaft. Das liegt aber vielleicht auch daran, dass ich ChatGPT seit fast drei Jahren täglich nutze und inzwischen gefühlt jede Formulierung schon einmal gelesen habe. Die tendenziell lockere Tonalität von OMR Reviews hat die KI dagegen ziemlich gut eingefangen.
Der Output von Gemini wirkt auf den ersten Blick deutlich nüchterner und textlastiger – von Emojis keine Spur
Auch in diesem Test kommt Gemini mit mehr Text daher als der Konkurrent aus dem Hause OpenAI. Allerdings gefällt mir hier der Output besser. Zwar kann auch Gemini nicht umhin, mit Floskeln um sich zu werfen („Eine exklusive Heißluftballon-Tour, die dich und dein Netzwerk auf ein neues Level hebt.“). Dafür empfinde ich die Texte deutlich besser für die jeweiligen Kanäle formuliert: Die Copy für die Landingpage ist merklich anders geschrieben als die Einladungs-Mail oder die Social-Media-Posts. Bonus-Punkte: Für die Social-Media-Beiträge erstellt Gemini unterschiedliche Textvarianten und macht Vorschläge für Bildmaterial.
Gewinner: Gemini
Kreatives Schreiben
Die Aufgabe: KIs haben im Allgemeinen nicht den besten Ruf, wenn es um kreative Aufgaben geht. Ob dieser Ruf berechtigt ist, wollte ich auf die Probe stellen. Als letzte Textaufgabe sollten mir deshalb beide KIs eine Kurzgeschichte über einen Frosch schreiben.
Der Prompt: Schreibe mir eine kurze, lustige und pointierte Geschichte über einen Frosch, der unerwarteten Besuch in seinem Teich bekommt, mit maximal 200 Wörtern.
Verwendete Modelle: GPT-4o und 2.5 Flash
Die Ergebnisse:
Die Kurzgeschichte von ChatGPT gleicht einem Fiebertraum – inhaltlich inkohärent, stilistisch schwankend und von einem wirklichen Plot brauchen wir gar nicht zu reden. Interessanterweise erzielt die Story gerade dadurch eine unfreiwillig komische Wirkung. Wer auf schrägen Meta-Humor steht, sollte sich also die Minute Zeit nehmen, um das Machwerk von ChatGPT zu lesen:
Die Kurzgeschichte von ChatGPT lässt einen roten Faden vermissen, ist aber in seiner Absurdität durchaus unterhaltsam
Bei Gemini sieht es etwas besser aus: Auch hier gibt es zwar viel zu bemängeln – etwa seltsam eingesetzte Anglizismen oder Grammatik- und Logikfehler. Insgesamt wirkt die Geschichte von Googles KI aber deutlich runder. Auch die ein oder andere Formulierung fand ich tatsächlich ganz charmant. Als kreativer Schreiber würde ich angesichts dieser Ergebnisse trotzdem weiterhin nachts ruhig schlafen können.
Auch Gemini ist bei Kurzgeschichten nicht wirklich überzeugend
Gewinner: Gemini
2. Strategie und Deep Research
Die Aufgabe: In meinem zweiten Test wollte ich herausfinden, wie gut die KIs umfangreichere Aufgaben erledigen, die ein hohes Maß an Strategie und Konzeption erfordern. Ziel war es, am Ende ein Dokument zu haben, mit dem man dem Management das Ausschreiben einer Volontariatsstelle verargumentieren kann. Für die Umsetzung habe ich zusätzlich alles aktiviert, was das Reasoning – also die Schlussfolgerungen der KI – verbessert.
Der Prompt: Da der Prompt für diese Aufgabe vergleichsweise umfangreich geworden ist, habe ich ihn hier ein- und ausklappbar gemacht:
Ich möchte am Ende den groben Rahmen haben, wie das Volontariat ablaufen soll. Als Zeitrahmen setzen wir 24 Monate an.
Zu unserer Firma: OMR Reviews ist die führende Software-Bewertungsplattform im DACH-Markt. Unter OMR Reviews bringen Erfahrungsberichte echter Nutzer*innen Transparenz in den SaaS-Markt. Mit unserem Service sorgen wir für Orientierung in einem unübersichtlichen Markt und geben Entscheider*innen Sicherheit beim Kauf von Software-Produkten. Derzeit findest du über 50.000 Reviews zu mehr als 7.000 Tools in über 220 Software-Kategorien auf unserer Plattform.
Wir suchen ein*e Volontär*in, die Lust hat, unter der Obhut eines erfahrenen Mentors, in die Welt des SEO und des AIO einzusteigen, um am Ende zu wissen, wie man menschliche Expertise mit generativer KI verbindet, um Inhalte zu kreieren, die im Web gefunden werden. Es ist also eine Stelle als Volontär*in mit dem Schwerpunkt SEO + AIO/GEO. Der Fokus liegt somit auf SEO/AIO-Content. Aber auch Grundlagen des technischen SEOs werden Inhalte des Volontariats sein. Zudem wird die Person ganz generell durch die Arbeit bei OMR Reviews einen Einblick in die SaaS- Szene kriegen, an diversen Events teilnehmen (u. a. der OMR 2026) und natürlich auch externe Weiterbildungen besuchen.
Verwendete Modelle: GPT-3o und 2.5 Flash – beide mit aktivierter Deep Research-Funktion für erweitertes Reasoning
Die Ergebnisse:
Bevor sich ChatGPT an die Bearbeitung der Aufgabe gemacht hat, kamen zunächst einige Rückfragen, ob es zum Beispiel eine Vollzeitstelle ist, welche konkreten Meilensteine es geben soll etc. Aus Nutzersicht finde ich das hilfreich, denn selbst bei einem ausgearbeiteten Prompt wie in diesem Fall können Informationen fehlen, die der KI helfen würden. Trotzdem habe ich darauf verzichtet und ChatGPT angewiesen, nur mit den Anweisungen zu arbeiten, die ich initial gegeben habe.
Bevor sich ChatGPT an die Arbeit macht, stellt die KI einige Rückfragen – die ich in diesem Test unbeantwortet gelassen habe
Die Recherche hat bei OpenAI insgesamt ca. 5 Minuten gedauert. Herausgekommen ist ein 4 ½-seitiges Dokument, das eine Executive Summary, die allgemeinen Ausbildungsziele, eine detaillierte Programmstruktur, Ideen für externe Weiterbildungen, ein zu erwartendes Outcome für OMR Reviews beinhaltet. Die einzelnen Kapitel sind dabei übersichtlich strukturiert. In einigen Bereichen, insbesondere den einzelnen Lernphasen des Volontariats, bleibt ChatGPT allerdings etwas vage und schlägt nur grobe Inhalte vor. Kurzum: Ein brauchbarer Ausgangspunkt für die strategische Rahmung, der allerdings noch einiges an Feinschliff benötigt.
Bevor Gemini loslegt, gibt es eine Vorschau darauf, was recherchiert wird
Kommen wir zu Google. Was mir bei Gemini sofort gefallen hat: Die KI schlägt einem vor der eigentlichen Recherche zunächst einen groben Rahmen vor, innerhalb dessen die Aufgabe bearbeitet werden soll. Bei Bedarf kann man hier also noch nachjustieren, bevor man ein Ergebnis erhält, das in die völlig falsche Richtung läuft. Der Fairness halber habe ich wie auch bei ChatGPT darauf verzichtet, weitere Informationen zu geben und die KI einfach machen lassen.
Bei der eigentlichen Bearbeitung hat sich das Tool von Google etwas mehr Zeit gelassen als die KI von OpenAI: Insgesamt hat Gemini 8 Minuten gebraucht, um mir ein strategisches Konzept zu erstellen. Und das hat es in sich: Auf 24 (!) Seiten beschreibt das Dokument detailliert die strategische Notwendigkeit des Volontariats, einen detaillierten Ausbildungsplan mit Meilensteinen und Lernzielen, die Mentorenrolle in jeder einzelnen Phase, einen individuellen Entwicklungsplan inklusive Budgetierung und den ROI fürs Unternehmen. Insgesamt also deutlich detaillierter. Für die Geschäftsführung, die ich in meinem Prompt als Zielgruppe angegeben habe, ist das Ergebnis aber sicherlich viel zu lang.
Eine weitere Kleinigkeit, die ich bei ChatGPT besser finde: Das Dokument lässt sich direkt aus dem Chat heraus als PDF herunterladen – bei Google funktioniert das nur über einen Umweg, indem man das Ergebnis in Google Docs exportiert und anschließend herunterlädt. Trotzdem empfand ich das Ergebnis von Gemini insgesamt hilfreicher, denn das Konzept enthielt auch viele Aspekte und Ideen, an die ich ursprünglich gar nicht gedacht hatte.
Gewinner: Gemini
3. Coding
Die Aufgabe: Ich verstehe so gut wie nichts vom Coden. Wie gut also, dass es KIs gibt, die mir dabei helfen können! In dieser Disziplin habe ich Gemini und ChatGPT damit beauftragt, mir einen HTML-Code für einen Blog im responsiven Design zu erstellen. Wie gut der Code am Ende war, kann ich natürlich nur bedingt beurteilen, allerdings habe ich beide Ergebnisse durch einen Online-HTML-Checker laufen lassen: In beiden Fällen waren die HTML-Codes fehlerfrei und das Design responsiv. Ansonsten habe ich mich vor allem auf die optischen Aspekte konzentriert.
Der Prompt: Schreibe mir Code Snippets in HTML, CSS und JavaScript für einen Blog im modernen, responsiven Design.
Verwendete Modelle: GPT-o4-mini-high und 2.5 Pro
Die Ergebnisse:
Das erste Ergebnis von ChatGPT ist optisch nicht unbedingt ansprechend, aber immerhin funktional
Für die Erstellung des Codes hat ChatGPT nur wenige Sekunden gebraucht. Nachdem das initiale Ergebnis nicht allzu überzeugend war, habe ich noch einige Änderungen vornehmen lassen: zusätzliche Preview-Kacheln für die Artikel, ein mitscrollendes Menü sowie einen Dark Mode. Auch diese Aufgaben konnte ChatGPT schnell und korrekt umsetzen. Klar: Das Gezeigte ist längst nicht perfekt. Für Laien wie mich ist das Coding mit ChatGPT praktisch, um unkompliziert Website-Entwürfe zu erstellen.
Nach ein paar geringfügigen Anpassungen sieht das Ergebnis von ChatGPT schon etwas besser aus
Bei Gemini gefällt mir der erste Entwurf deutlich besser. Das Ergebnis strahlt eine gewisse Modernität aus, mit großen Bild-/Artikel-Elementen. Auch die Kategorisierung der einzelnen Artikel finde ich als Mock-up deutlich ansprechender als bei ChatGPT.
Der erste Blog-Entwurf von Gemini gefällt
Bei Gemini habe ich ebenfalls nachträglich Änderungen am Code vornehmen lassen: Der Dark Mode kam hier sogar mit einem netten Mond-/Sonne-Icon daher und auch das mitscrollende Menü fügt sich meiner Meinung nach optisch besser ins Gesamtergebnis ein:
Geminis Entwurf kann sich auch im Dark Mode sehen lassen
Gewinner: Gemini
4. Multimodalität: Audio, Bild und Video
Sowohl Gemini als auch ChatGPT können inzwischen weit mehr als nur textbasierte Ergebnisse liefern. Deshalb habe ich mir die Funktionen für Audio, Bild und Video einmal genauer angeschaut:
Audio
Beide KIs bieten die Möglichkeit, nicht nur über die Tastatur, sondern auch per Sprachbefehl zu prompten. So weit, so unspektakulär. Spannend wird es erst, wenn man die ChatGPT-App beziehungsweise die Gemini-App auf dem Smartphone aufruft. Dann nämlich hat man Zugriff auf die Funktionen Advanced Audio (ChatGPT) beziehungsweise Gemini Live.
Bei beiden Funktionen fungiert die KI als Gesprächspartner, mit dem man sich in natürlicher Sprache unterhalten kann. Zusätzlich kann man die Kamera des Smartphones aktivieren, um beispielsweise Fragen zu Gegenständen zu stellen. All das funktioniert sowohl bei ChatGPT als auch bei Gemini tadellos. Bei Google hat man zusätzlich die Wahl, wie die Stimme klingen soll, die mit einem spricht. Dafür empfand ich Tonalität, Sprachrhythmus und Betonung von ChatGPT als natürlicher.
Gleichstand also? Fast! Das Zünglein an der Waage ist eine Funktion, die Gemini mitbringt und bei ChatGPT fehlt: Lädst du bei Googles KI ein Dokument hoch, hast du die Möglichkeit, eine Audio-Zusammenfassung in Form eines Podcasts zu erstellen.
Einfach Dokument per Drag-and-drop hochladen, dann erscheint die Option „Audio-Zusammenfassung erstellen“ über dem Eingabefeld
Gewinner: Gemini
Bildgenerierung
Die Aufgabe: Natürlich können ChatGPT und Gemini auch Bilder erstellen. Zur Bildgenerierung mit ChatGPT habe ich bereits einen Artikel geschrieben, weshalb ich mich an dieser Stelle kurzhalte: Nach wie vor gehört die KI von OpenAI nicht zu den besten, wenn es um Visuals geht. Für einen ersten Einstieg reicht das Tool aber aus. Den Prompt für diese Aufgabe habe ich von einem Midjourney-Beitrag ausgeliehen, weshalb er in diesem Fall in englischer Sprache ist:
Der Prompt: Happy child enjoys playing colorful game. Boy draws circle with pencil. Smiling face shows joy. Childhood activity, fun, indoor leisure, learning, development, education concept, professional commercial product photography.
Verwendete Modelle: GPT-4o und 2.5 Flash
Die Ergebnisse:
Wie erwartet, ist das Ergebnis von ChatGPT etwas unrealistisch. Farben, Kontraste und Hauttexturen erwecken einen gewissen „Plastik-Look“. Erfreulich ist hingegen, dass Bilder durch klicken + prompten nachträglich bearbeitet werden können. Inzwischen sogar so, dass nicht jedes Mal ein neues Bild produziert wird. Eine Funktion, die Gemini (noch) nicht hat. Auf diese Weise wurde das unten gezeigte Bild vom ursprünglichen 4:3- auf ein 16:9-Format erweitert. Bonus-Tipp für Anfänger*innen: Klickt man unter dem Eingabefeld auf Tool auswählen → Bild erstellen, kann man aus einer Reihe von Stilvorlagen auswählen.
Das Bild von ChatGPT ist gut, allerdings auch klar als KI-generiert zu erkennen.
Besser sieht es bei Gemini aus: Hier finde ich die Beleuchtung, Texturen und Farbkontraste deutlich gelungener. Auch die simulierte Tiefenschärfe einer Kamera trägt zum realistischeren Look bei:
Das Bildergebnis überzeugt – leider lassen sich Bilder nachträglich nicht mehr anpassen.
Geht es um die Bildqualität, hat Google die Nase vorn – allerdings kann man nicht wie bei ChatGPT Bilder nachträglich bearbeiten. Das ist besonders dann ärgerlich, wenn das Ergebnis zufriedenstellend ist und man beispielsweise nur das Seitenverhältnis ändern möchte.
Gewinner: Unentschieden
Videogenerierung
Die Aufgabe: Kommen wir zur letzten, besonders spannenden Disziplin: KI-generierte Videos. Über eine Schnittstelle zur hauseigenen KI Sora ist es inzwischen möglich, mit seinem ChatGPT-Account Videos zu produzieren. Ähnlich ist es bei Google: Hier heißt die entsprechende Funktion Veo 3. Als letzte Aufgabe sollten mir beide KIs einen echten Internet-Klassiker produzieren – nämlich Katzen-Content!
Der Prompt: Ein süßer kleiner Kater stolziert bei bestem Wetter eine lebhafte Strandpromenade entlang, lockere Hintergrundmusik (Steel Drums, Reggae-Beats), cineastischer Stil.
Verwendete Modelle: Sora und Veo 3
Die Ergebnisse:
Machen wir es kurz: Das Ergebnis von ChatGPT/Sora ist miserabel. Unnatürliche Bewegungen, seltsame Farben und Artefakte bis zum Abwinken. Das ist bestenfalls für einen unfreiwilligen Lacher gut. Auch eine Audiospur fehlt vollständig.
Über die Qualität des Sora-Videos breiten wir besser den Mantel des Schweigens aus
Gemini/Veo 3 löst die Aufgabe deutlich besser. Klar, auch dieses Video ist unverkennbar mit KI generiert. Trotzdem gefällt der stimmige Stil und auch der locker-leichte Reggae-Soundtrack ist gut umgesetzt:
Es dürfte klar sein, wer in dieser Disziplin den Sieg davonträgt.
Gewinner: Gemini
Das gefällt mir an ChatGPT besser
✅ CustomGPTs: Die CustomGPTs, also GPTs, die man selbst konfiguriert, um wiederkehrende Aufgaben zu erledigen, können mit anderen Nutzer*innen geteilt werden. Das ist bei Geminis Pendant – den sogenannten Gems – nicht der Fall.
✅ Übersichtlichkeit: ChatGPT stellt die Ergebnisse häufig in kürzeren Absätzen, mit mehr Bulletpoints und dadurch übersichtlicher dar als Gemini.
Das gefällt mir an Gemini besser
✅ Reasoning & Detailtiefe: Auch wenn Gemini gerne mal etwas zu viel Text raushaut, empfand ich die inhaltliche Tiefe besser als bei ChatGPT.
✅ Workspace-Integration: Die Anbindung an den Google Workspace erleichtert die alltägliche Arbeit spürbar.
✅ Multimodalität: Audio, Video- und Bildgenerierung sind bei Gemini hochwertiger.
ChatGPT vs. Gemini – was ist besser?
Nach anfänglicher Skepsis bin ich inzwischen von Gemini überzeugt. Die Geschwindigkeit ist in der Regel hoch, die Rechercheergebnisse brauchbar und die Anbindung an den Google Workspace macht das übergreifende Arbeiten komfortabler. Letzten Endes ist es aber auch einfach eine Frage der persönlichen Gewohnheit und Präferenz – beide KIs sind mächtige Werkzeuge, die im Arbeitsalltag zahlreiche Möglichkeiten zur Effizienzsteigerung bieten.