ChatGPT & Co. als Traffic-Quelle: Werden GAIO oder LLMO jetzt zur Marketingdisziplin?
So wollen Marketingmacher*innen dafür sorgen, dass bestimmte Marken von KI-Chatbots genannt werden
- 100.000 US-Dollar Umsatz monatlich dank ChatGPT?
- "Das könnte auch das SEO-Game ändern"
- Mit "Press Mentions" Relevanz suggerieren
- Auch "Negative LLMO" könnte möglich sein
- Ist Elon Musk schon ein "LLMO-Coup" gelungen?
- Reddit als "Zünglein an der Waage"
- "Einen Forbes-Artikel kaufen, bei Reddit teilen und Upvotes kaufen"
- Bietet die SGE Chancen für neue Player?
- Wird Google die SGE je für alle Nutzer*innen einführen?
Falls Menschen sich in Zukunft zunehmend über Chatbots wie ChatGPT statt über Suchmaschinen informieren – können Marketingmacher*innen dann beeinflussen, ob ihre Marke in diesem Zusammenhang auftaucht und wie positiv sie dargestellt wird? In der Szene wird bereits über "Generative AI Optimization" und "Large Language Model Optimization" diskutiert. OMR hat mit zwei Experten darüber gesprochen, was sich dahinter verbirgt, wie das Ganze funktionieren soll und welches Potenzial das Thema für die Zukunft hat.
Es ist ein knappes Jahr her, da hat es Andy Wilson "durchgeschüttelt": Ein Neukunde erklärte ihm, er sei durch ChatGPT auf Wilsons Unternehmen Logikcull aufmerksam geworden. Logikcull bietet Software für einen Prozess namens "Legal Discovery". Dabei durchforsten Anwaltskanzleien und Rechtsabteilungen Dokumente nach Informationen, die im Rahmen von Ermittlungen und rechtlichen Verfahren relevant sein könnten. Weil diese Informationen wertvoll sind, sind Jurist*innen offensichtlich dazu bereit, viel Geld für ein Tool wie Logikcull zu zahlen, das bei diesem Vorgang unterstützt. Der durchschnittliche jährliche Vertragswert soll 28.000 US-Dollar betragen, wie Wilson gegenüber The Information erklärt hat.
100.000 US-Dollar Umsatz monatlich dank ChatGPT?
Schon einzelne Vertragsabschlüsse mit Neukund*innen sind also für Logikcull vergleichsweise wertvoll. Im Juni des vergangenen Jahres sollen fünf Prozent aller Leads von Logikcull über ChatGPT vermittelt worden sein. Der KI-Chatbot könnte bald 100.000 US-Dollar Abo-Umsatz im Monat für das Unternehmen generieren, so Wilson damals.
Offenbar kein Einzelfall: Das US-Startup Fairing bietet ein Tool, mit dem Firmen, die ihre Produkte online verkaufen, ihre Kund*innen nach einem Kauf automatisiert fragen können, wie sie auf sie aufmerksam geworden sind. Schon vor einem knappen Jahr berichtete das Unternehmen in seinem Firmen-Blog, dass bei Dutzenden von E-Commerce-Marken Kund*innen an dieser Stelle ChatGPT oder ein anderes KI-Tool genannt hätten.
Antworten von Kund*innen von Online-Shops auf die Frage, wie sie auf den jeweiligen Shop oder die jeweilige Marke aufmerksam geworden sind (Quelle: Fairing)
"Das könnte auch das SEO-Game ändern"
Malte Landwehr
Die Beispiele zeigen, dass ChatGPT und andere KI-Systeme schon jetzt ein relevanter Kanal in der Akquise von Neukund*innen sein können und Marketingmacher*innen diese im Blick behalten sollen. Wenig erstaunlich also, dass sich Experten wie Philipp Klöckner und Malte Landwehr sich bereits damit beschäftigen, wie sich die Modelle "hacken" lassen. Dabei etablieren sie auch neue Begrifflichkeiten.
Malte Landwehr, Head of SEO beim deutschen Preisvergleichsdienst Idealo, erklärt gegenüber OMR: "Wir bekommen jeden Tag Traffic von ChatGPT. Sowohl über den regulären Chatbot als auch über unser ChatGPT-Plugin." Mit dem im vergangenen November veröffentlichten Idealo-ChatGPT-Plugin können Nutzer*innen der kostenpflichtigen Plus-Version des KI-Chatbots die Produkt- und Preisinformationen aus Idealos Datenbank abrufen.
"Aktuell ist der Traffic noch auf einem niedrigen Niveau", sagt Landwehr. "Aber wir sehen hier für die Zukunft Potenzial." Er glaube zwar, dass ein Chatbot bei maximal 50 Prozent der Use Cases, für die man bisher eine Suchmaschine verwendet, sinnvoll sei. "Wenn man direkt etwas will, ist bei ChatGPT die Antwortzeit zu lange." Gleichzeitig sei klar: "Wenn zehn Prozent der Menschen mit ChatGPT oder Perplexity (wir berichteten, Anm. d. Red.) suchen, oder Google nur noch KI-generierte Antworten gibt, dann ändert sich auch das SEO-Game."
Mit "Press Mentions" Relevanz suggerieren
Landwehr hat nach eigenen Angaben mehr als 50 Stunden dazu recherchiert, was Website-Betreiber*innen tun könnten, um den Output von generativen Sprachmodellen (Large Language Models, LLM) zu beeinflussen. Über seine Erkenntnisse hat er auf Linkedin einen Artikel veröffentlicht. "Ich vermute, dass vieles davon, was man in der 'Large Language Model Optimization' (LLMO) tun sollte, mit den Mitteln der modernen Suchmaschinenoptimierung überlappt", so Landwehr. Sowohl bei SEO als potenziell auch bei LLMO sei es wichtig zu demonstrieren, dass die eigene Marke etabliert und bekannt ist.
"Zu den wichtigsten Mitteln gehört da die Generierung von 'Press Mentions'", so der Experte – also von Nennungen der eigenen Marke in Medien. "Zum einen sind Medien in Sachen Online-Sichtbarkeit nach wie vor relevant. Zum anderen kann man durch den Aufbau persönlicher Beziehungen oder Bezahlung dort überhaupt 'reinkommen'. Bei Online-Shops geht das nicht, wenn man nicht ein Produkt anbietet, das dort verkauft wird."
Auch "Negative LLMO" könnte möglich sein
Sprachmodelle wie GPT3, auf dem die aktuelle kostenlose Variante von ChatGPT basiert, sind auf Basis eines großen Datensets trainiert worden, zu dem beispielsweise auch Texte von Medien wie der New York Times gehören. Die US-Zeitung hat Ende Dezember OpenAI verklagt, nachdem zuvor Verhandlungen zwischen beiden Parteien wegen der potenziellen Höhe einer Vergütung gescheitert waren. Wenn man also als Marke in Medienberichten genannt wird, könnte dies auch den Output von Sprachmodellen wie GPT3 beeinflussen, glaubt Malte Landwehr.
Er zeichnet folgendes potenzielles Szenario: "Wenn wir eine Million Artikel in die Trainingsdaten des jeweiligen Sprachmodells einspeisen können, die Adidas im Zusammenhang mit 'Laufschuhen' erwähnen, und eine weitere Million Artikel, die Nike im Zusammenhang mit 'schlechter Qualität' erwähnen, könnte ein LLM dazu gebracht werden, Adidas mit Laufschuhen und Nike mit schlechter Qualität zu assoziieren."
Ist Elon Musk schon ein "LLMO-Coup" gelungen?
Ein reales Beispiel echter (wenn auch möglicherweise so nicht beabsichtigter) "LLMO" hat Landwehr auch schon aufgetan: Bittet man ChatGPT darum, die Buchstabenfolge "tesla whist" zu beenden, schlägt der Chatbot "tesla whistle" vor; im Fall von "facebook whist" schlägt er "facebook whistleblower" vor. Der Grund dafür? Tesla CEO Elon Musk hatte als Scherz eine Pfeife (englisch: Whistle) in Form eines Cybertrucks produzieren und verkaufen lassen – und damit möglicherweise den Output von ChatGPT beeinflusst. Obwohl es bei Testa mit Lukasz Krupski eigentlich einen Whistleblower gab, der viel mediale Aufmerksamkeit auf sich gezogen hat – so wie Frances Haugen im Fall von Facebook.
Marketingberater und Podcaster Philipp Klöckner hat sich vor Kurzem in einer Folge seines Doppelgänger-Podcasts ebenfalls mit einer potenziell neuen Marketingdisziplin "Generative AI Optimization" befasst. "Die Frage ist: Was ist der effizienteste Weg, wenn man Sprachmodelle manipulieren will?", so Klöckner im Gespräch mit OMR. Fast alle Modelle seien auf Basis von vier großen Textkorpora trainiert worden. Nicht alle diese Informationen seien jedoch gleich gewichtet worden.
Reddit als "Zünglein an der Waage"
Philipp Klöckner
Bei OpenAIs Sprachmodellen bis GPT3.5 hat der so genannte "Common Crawl" den größten Anteil an den gesamten Trainings-Daten. "Das muss man sich vorstellen wie einen großen Google Index", so Klöckner. "Da crawlt eine NGO 3,2 Milliarden Websites und stellt das Ergebnis allen zur Verfügung. Weil so quasi das gesamte Netz, einschließlich aller niedrig-qualitativen Inhalte, abgebildet wird, gewichtet OpenAI das mit Blick auf die gesamten Trainingsdaten aber niedriger."
Ebenfalls zum Trainings-Datensatz gehört "Web Text 2", eine Sammlung von "hochqualitativen Links", die innerhalb der Social Community Reddit geteilt worden sind. Der macht zwar nur vier Prozent des gesamten Datensatzes aus, wird aber komparativ übergewichtet. "Das ist wie eine Qualitätsprüfung: Da kommt nur rein, was die Reddit-Community gut fand. Deswegen wird dieser Teil von OpenAI fünffach verstärkt", so Klöckner.
"Einen Forbes-Artikel kaufen, bei Reddit teilen und Upvotes kaufen"
"Wenn ich ChatGPT & Co. manipulieren wollen würde, würde ich versuchen, als Marke in 'Web Text 2' vorzudringen. Wenn ich beispielsweise mein Personal Branding pushen wollen würde, würde ich bei Forbes einen bezahlten Artikel mit dem Titel 'Warum Philipp Klöckner die Top Linkedin Voice in Deutschland ist" veröffentlichen, den bei Reddit teilen und dann Links und Upvotes dafür kaufen." Interessant in diesem Zusammenhang auch, dass Reddit laut Bloomberg mit einer nicht näher benannten großen KI-Firma einen Content-Lizensierungs-Deal im Wert von 60 Millionen US-Dollar abgeschlossen haben soll.
Als Firma könnte nach Einschätzung von Klöckner die Nennung auf Vergleichsseiten und in Listicles nützlich sein: "Als kleine Versicherung sollte man dann in Listen mit der Allianz und anderen größeren Versicherungen auftauchen, um so Relevanz vorzutäuschen."
Eine weitere Möglichkeit, den Output von ChatGPT zu verändern, könnte es sein, den Chatbot direkt zu "füttern", so Klöckner: "Man kann ja mit ChatGPT diskutieren und der Chatbot ist dafür bekannt, Ergebnisse darauhfin anzupassen." Um das nachhaltig und im großen Stil zu tun, reiche aber nicht eine Unterhaltung über ein Gerät. "Dafür ist vermutlich eine höhere Zahl von Accounts notwendig, im hohen zwei- bis niedrig dreistelligen Bereich."
Bietet die SGE Chancen für neue Player?
Eine deutlich größere Bedeutung könnten LLMO oder GAIO erlangen, wenn Google als größter Traffic-Lieferant im Web seine Suchmaschine komplett oder teilweise umstellt, von Index-basiert auf KI-Sprachmodell-basiert. Seit Mai vergangenen Jahres testet der US-Konzern die Integration von generativer KI in Form der "Search Generative Experience" (SGE). Die ist allerdings nur auf Anmeldung nutzbar, aber zurzeit nicht in Deutschland.
Erste Studien deuten an, dass bei der SGE häufig andere Websites als Quellen verlinkt werden als jene, die in der regulären Google-Suche weit oben auftauchen. Würde Google die SGE also für die Allgemeinheit ausrollen, könnte dies für eine tiefgreifende Verschiebung der bisherigen "Kräfteverhältnisse" in der Suchmaschinenoptimierung sorgen.
Wird Google die SGE je für alle Nutzer*innen einführen?
Die von OMR befragten Expert*innen sind aber unsicher, ob Google diesen Schritt in der nahen Zukunft gehen wird. "Google wird mit dem Ausrollen der SGE sehr vorsichtig sein", sagt Philipp Klöckner. "Zum einen sind die Kosten sehr viel höher, zum anderen ist es schwierig, innerhalb von KI-generierten Antworten Klicks auf Werbung zu generieren." Malte Landwehr sagt: "Experten vermuten, dass es Google um die 36 Milliarden US-Dollar pro Jahr kosten würde, SGE für jede Suchanfrage auszuspielen. Das ist etwa wie Hälfte von Googles Jahresgewinn." Auch er sieht deswegen in der SEO-Szene große Zweifel daran, dass Google die SGE weitflächig ausrollt.
Die Vergangenheit habe gezeigt, dass Google auch manuell in den Algorithmus eingreift, so der SEO-Experte. "Wollte Google solche Änderungen bei einem LLM durchführen, müsste das immer wieder neu trainiert werden. Auch das würde vermutlich über die Zeit enorme Kosten verursachen." Einer der meistbeachteten Trends sei deswegen aktuell 'Retrieval Augmented Generation': "Dabei wird ein Sprachmodell mit einer Datenbank verknüpft. Das Sprachmodell generiert dann Text und Argumentation; das Wissen kommt aus einer Datenbank. Denn eine Datenbank zu aktualisieren, ist deutlich einfacher und günstiger als jeden Tag ein LLM neu zu trainieren."