Google bündelt mit „Project Gemini“ die eigenen AI-Kräfte, um mit OpenAI zu konkurrieren

Das interne AI-Team und Deepmind arbeiten erstmals gemeinsam miteinander

scientists_handshake_optimized_550x287
Inhalt
  1. Image-Korrektur nach dem verstolperten Bard-Start
  2. Googles ranghöchster AI-Experte programmiert persönlich
  3. Beide Teams sollen keine andere Wahl gehabt haben
  4. Ist Bard mit ChatGPT-Protokollen trainiert worden?
  5. Hat Google gegen die AGB von OpenAI verstoßen?
  6. ChatGPT verzeichnet Millionen von Nutzenden
  7. Bis zu Geminis Fertigstellung könnten Monate vergehen
  8. Andere Google-Teams entwickeln eigene LLMs

Bislang standen Googles internes KI-Forschungsteam sowie das von Google aufgekaufte, renommierte KI-Startup Deepmind eher miteinander in Konkurrenz. Doch weil durch die Erfolge von OpenAI der Druck wächst, müssen nun beide miteinander kooperieren. Im Rahmen eines geheimnisumwitterten neuen Projekts sollen beide Teams gemeinsam ein neues, riesiges „Large Language Model“ entwickeln, das mit OpenAIs GPT4 mithalten kann. Jon Victor und Amir Efrati von The Information haben Insider-Informationen erhalten.

OpenAIs Erfolg (Google mit einem auf künstlicher Intelligenz basierenden Chatbot zu überholen) hat zu etwas geführt, was in der Vergangenheit unmöglich schien: Er hat die beiden KI-Forschungsteams innerhalb der Google-Muttergesellschaft Alphabet gezwungen, ihre jahrelange Rivalität zu überwinden und zu kooperieren.

Image-Korrektur nach dem verstolperten Bard-Start

Laut zwei mit dem Projekt vertrauten Personen arbeiten nun Software-Entwickler*innen von Googles interner KI-Forschungsgruppe Brain mit Mitarbeiter*innen von Deepmind zusammen, einem KI-Labor, das 2014 von Google übernommen wurde und das seit der Umstrukturierung des Suchmaschinenkonzerns als eigenständige Einheit unter dem Dach der Alphabet-Holding operiert. Das intern als Gemini bezeichnete Projekt ist vor wenigen Wochen aufgegleist worden, nachdem der Start von Bard, Googles erstem Versuch mit dem Chatbot von OpenAI zu konkurrieren, eher holprig verlief.

Seit der Übernahme von Deepmind durch Google im Jahr 2014 agiert das Unternehmen eher als Konkurrent denn als Partner von Google Brain. Beide Teams standen bislang im internen Wettbewerb miteinander, zum einen dabei, einige der Google-Produkte und -Dienste zu verbessern, zum anderen dabei, mit Forschungsdurchbrüchen auf der ganzen Welt für Aufmerksamkeit zu sorgen. Doch mittlerweile seien beide Google-Teams von OpenAI überflügelt worden, wie Mitarbeiter*innen beider KI-Teams einräumen. Außerdem hat OpenAI einige der wichtigsten Entwickler*innen und Forscher*innen abgeworben, wie The Information berichtet.

Googles ranghöchster AI-Experte programmiert persönlich

OpenAI stellte im November mit ChatGPT einen Chatbot vor, der menschenähnliche Antworten gibt und zu einer der schnellstwachsenden Apps aller Zeiten geworden ist. Googles eigener Chatbot, Bard, der seit vergangener Woche für eine begrenzte Gruppe von Nutzern verfügbar ist, schneidet bei einigen Aufgaben offenbar schlechter ab als ChatGPT.

Welche Wichtigkeit Google Gemini beimisst, lässt sich auch daran ablesen , dass Jeff Dean, der Leiter von Brain und ranghöchster KI-Forscher bei Google, eine operative Rolle in dem Projekt übernommen hat. Wie eine der mit dem Projekt vertrauten Personen gegenüber The Information erklärt hat, ist Dean an der Entwicklung eines neuen Machine-Learning-Modells unmittelbar beteiligt. Dieses soll sich von seinen Fähigkeiten her auf Augenhöhe mit OpenAIs GPT-4 bewegen, dem Modell, das ChatGPT antreibt.

Beide Teams sollen keine andere Wahl gehabt haben

Das Projekt ist mit ein Beleg dafür, wie rigoros Google die Produkt Road Maps zahlreicher Teams durcheinanderwirbelt hat, nachdem durch ChatGPT und OpenAI der Wettbewerbsdruck gestiegen ist. Zuletzt sind diverse OpenAI-Produkte in Microsoft-Produkte integriert worden. Microsoft ist finanziell maßgeblich an OpenAI beteiligt und bezahlt die Rechenkapazitäten, die das Startup benötigt.

Gemini ist eine Zwangsehe. Die beiden KI-Labors von Alphabet haben bisher nur selten zusammengearbeitet und kaum auch nur Programmiercode miteinander geteilt. Aber da zuletzt beide ihr eigenes Machine-Learning-Modell entwickeln wollten, um mit OpenAI zu konkurrieren und dafür eine übermäßige Menge an Rechenleistung benötigt hätten, hätten sie keine andere Wahl gehabt, als zusammenzuarbeiten, wie eine mit der Situation vertraute Person erklärt.

Ist Bard mit ChatGPT-Protokollen trainiert worden?

Der verstolperte Launch von Bard zeigt die Probleme von Google. Der Chatbot wurde in einem Prozess entwickelt, der so umstritten war, dass der bekannte KI-Entwickler Jacob Devlin im Januar bei kündigte und sofort zu OpenAI wechselte, wie zwei Personen gegenüber The Information erklärten. Devlin war der Hauptautor einer bahnbrechenden Arbeit über eine Methode zum Trainieren von Machine-Learning-Modellen, um deren Verständnis von Satzgruppen zu verbessern – eine Entwicklung, die OpenAI bereits in die eigenen Sprachmodelle integriert hat.

Devlin verließ Google, nachdem er Pichai, Dean und anderen leitenden Managern seine Bedenken mitgeteilt hatte, dass das Bard-Team (unterstützt von von Brain-Mitgliedern) sein Machine-Learning-Modell mit Daten aus OpenAIs ChatGPT trainierte. Nach Darstellung von Devlin sollen dafür Daten von ShareGPT genutzt worden sein, einer Website, auf Menschen Unterhaltungen veröffentlichen können, die sie mit ChatGPT geführt haben.

Hat Google gegen die AGB von OpenAI verstoßen?

Einige Google-Mitarbeiter*innen seien der Ansicht gewesen, dass die Verwendung solcher Chatprotokolle gegen die Nutzungsbedingungen von OpenAI verstoße. In OpenAIs AGB wird die Verwendung von Texten, die mit Hilfe von OpenAI-Produkten erstellt worden, „zur Entwicklung von Modellen, die mit OpenAI konkurrieren“ untersagt. Devlin teilte den Führungskräften auch mit, er sei besorgt, dass durch die Verwendung der Chatprotokolle von ShareGPT die Antworten von Bard jene von ChatGPT zu sehr imitieren oder ihnen zu sehr ähneln könnten.

Nachdem er Pichai, Dean und anderen leitenden Managern seine Bedenken angesichts der Verwendung von ChatGPT-Daten für das Training von Bard mitgeteilt hatte, reichte Devlin seine Kündigung ein. Google hat danach nach eigenen Angaben die Verwendung von ChatGPT-Daten für das Training von Bard gestoppt, so eine mit den Vorgängen vertraute Person. Google-Sprecher Chris Pappas äußerte sich gegenüber The Information weder zu Devlins Rücktritt noch dazu, ob Bard zuvor auf Basis von ShareGPT trainiert worden sei. Nach der Veröffentlichung dieses Artikels erklärte der Sprecher, dass das heute verwendete Bard-Produkt nicht mit Informationen von ShareGPT trainiert wurde.

ChatGPT verzeichnet Millionen von Nutzenden

Das Bard-Team ist zum Teil von Sissie Hsiao geleitet worden, einer Google Vizevorständin, der zuvor für den Google Assistant verantwortlich war, so zwei Quellen gegenüber The Information. OpenAI reagierte nicht auf eine Anfrage zur Stellungnahme.

Welche geschäftlichen Auswirkungen der frühe Vorsprung von OpenAI auf Alphabet haben könnte, ist bislang noch unklar. Obwohl der Service noch viele faktische Fehler produziert, nutzten bereits Millionen von Menschen ChatGPT und die Technologie dahinter, um – neben vielen anderen Aufgaben – schnell Blogbeiträge und andere Inhalte zu erstellen, Besprechungsnotizen zusammenzufassen und automatisch Tabellenkalkulationen zu erstellen.

Bis zu Geminis Fertigstellung könnten Monate vergehen

Das Produkt hat bisher relativ wenig Umsatz generiert, aber das könnte sich ändern. Microsoft versucht aktuell, seine eigene Suchmaschine, Bing, durch die Integration einer ChatGPT-ähnlichen Funktion mit Hilfe von OpenAI zu stärken. Zumindest bislang scheint Bing damit jedoch der Google-Suche keine nennenswerten Marktanteile abnehmen zu können. Trotzdem scheint OpenAI eine neue Ära von Anwendungen eingeläutet zu haben, die Nutzeranfragen in natürlicher Sprache verstehen können.

Das Gemini-Projekt zielt darauf ab, ein großes Sprachmodell zu entwickeln – ein Computerprogramm, das menschenähnliche Sprache verstehen und generieren kann – das bis zu einer Billion Parameter verarbeiten könne, so eine der Personen, die über das Projekt informiert wurden. Die Kapazität von GPT-4 liegt ebenfalls bei etwa 1 Billion Parameter, berichtete Semafor. Die Pläne von Google erfordern Zehntausende von „Tensor Processing Units“. TPU-Mikrochips, das Äquivalent zu den „Graphic Processing Units“ (GPUs) von Nvidia, eignen sich besonders gut für das Training großer Machine-Learning-Modelle, so die Quelle. Dennoch kann es noch Monate dauern, bis das Gemini-Projekt abgeschlossen ist, sagte diese Person.

Andere Google-Teams entwickeln eigene LLMs

In der Zwischenzeit haben andere Teams bei Google im Rahmen der unternehmensweiten Bemühungen, KI in alle Produkte zu integrieren, ihre eigenen „Large Language Models“ entwickelt. Pandu Nayak, eine Google-Führungskraft, die für Such-Rankings zuständig ist, hat ein separates Modell e(ntwickelt, um bestimmte Suchanfragen zu bearbeiten, während Googles Cloud-Sparte ein eigenes Modell entwickelt, um es an ihr Kunden zu verkaufen, ähnlich dem Modell, das Kunden von OpenAI oder Microsofts Cloud-Einheit Azure kaufen können, sagte diese Person.

Dieser Artikel stammt im Original von Jon Victor und Amir Efrati und erschien zuerst bei The Information. Er wurde von uns im Rahmen einer Kooperation übersetzt. 

TI
Autor*In
The Information
Alle Artikel von The Information

Ähnliche Artikel

Kostenlose Online-Seminare

Robindro Ullah

Recruiting 2025: Diese Trends darfst du nicht verpassen

28.1.2025 10:00 - 11:00 Uhr
Aktuelle Stories und die wichtigsten News für Marketeers direkt in dein Postfach!