Dieses Startup produziert für Medien automatisch Podcasts
Mit der Technik von Storyflash werden Texte automatisch in Audio-Beiträge umgewandelt und ausgespielt
- Storyflash will die Redaktionsarbeit automatisieren
- Künftig wird es auch Lösungen für Videos geben
- In Hamburg gibt es mit Bottalk einen Storyflash-Konkurrenten
- „Unterschiede erkennt man oft nur am Atmen“
Mehr als eine halbe Million Abrufe hat die Redaktion der Hessisch-Niedersächsischen Allgemeinen mit ihrem Nachrichten-Podcast erzielt – ohne jemals einen Text dafür eingesprochen zu haben. Möglich macht das die Software des Düsseldorfer Startups Storyflash. Die beiden Gründer haben große Pläne. Doch sie haben auch starke Konkurrenz.
Marie Klement ist Podcast-Fan, aber sie ist auch Realistin: „Ein täglicher Nachrichten-Podcast war zeitlich nicht machbar“. Denn das Digitalteam der Hessisch-Niedersächsischen Allgemeinen, das Marie Klement leitet, besteht aus ihr – und einer Kollegin. Dass es seit November trotzdem werkstags einen News-Podcast gibt, liegt daran, dass Klement inzwischen Unterstützung bekommen hat von einem Startup aus Düsseldorf: Storyflash.
Das Unternehmen bietet eine Software an, mit der Unternehmen vollautomatisiert Social-Media-Posts aus ihren Texten machen können – und inzwischen eben auch Podcasts (bei unseren Kollegen von OMR Reviews wurde das Tool bereits bewertet). „Im vergangenen Jahr hatten alle Verlage großen Bedarf an Lösungen für den Bereich Audio. Gerade ein den Lokalredaktionen fehlt dafür oft die Kapazität“, sagt Storyflash-Mitgründer Pascal Hohmann. Sobald Texte aus der Redaktion vorliegen, können sie innerhalb kürzester Zeit in gesprochene Sprache umgewandelt werden. Marie Klement sagt: „Das System ist wirklich sehr einfach, pro Podcast-Folge brauchen wir nur etwa 10 bis 15 Minuten für die Produktion“. Laut der Leiterin des HNA-Digitalteams könnte man die Podcasts sogar vollautomatisiert produzieren lassen. „Aber so gut ist die Technik noch nicht. Ein paar Dinge müssen wir immer noch händisch lösen, zum Beispiel Ortsmarken aus den Texten entfernen“, sagt sie.
Storyflash will die Redaktionsarbeit automatisieren
Allein mit den ersten 100 Episoden des werktäglichen HNA-Nachrichtenüberblicks hat die Redaktion bis März knapp 500.000 Hörer:innen erreicht. Seitdem kommen 1.500 bis 2.000 Abrufe mit jeder neuen Folge hinzu, die über die Hosting-Plattform Julep sogar vermarktet werden können. „Unser Ziel ist natürlich, irgendwann hyperlokale Podcasts anzubieten“, sagt Marie Klement: „Wir haben immerhin 16 Außenredaktionen“. Denkbar ist auch, dass weitere Redaktionen der Ippen-Gruppe die Technologie demnächst übernehmen. Neben der HNA gehören zu Ippen unter anderem der Münchner Merkur oder die Frankfurter Rundschau.
Storyflash wurde 2018 von Pascal Hohmann und Clas Jelinek gegründet. Die beiden kommen eigentlich aus der Werbebranche. Nun wollen sie mit Storyflash eine Plattform bauen, über die sich Inhalte automatisiert erzeugen und ausspielen lassen – vom Social-Media-Post über Podcasts bis hin zu Videos. „Wir liefern mit unserer Technik eine Beschleunigung, die entweder das Grundrauschen insgesamt erhöht oder bestehende Angebote ergänzen kann“, sagt Clas Jelinek. Er ist überzeugt davon, dass das Angebot von Storyflash langfristig nicht nur für Medienhäuser interessant ist, sondern beispielsweise auch für Anbieter in der Finanzindustrie. Aktuell arbeitet das Startup neben der HNA auch mit der Online-Redaktion des Focus oder dem Magazin Instyle zusammen.
Künftig wird es auch Lösungen für Videos geben
Bei der Audio-Produktion arbeitet Storyflash mit dem Londoner Unternehmen Aflorithmic zusammen. Dieses hatte in der Vergangenheit Aufmerksamkeit erregt, weil es die Stimme des Nobelpreisträgers Albert Einstein synthetisch nachgestellt hatte. Die Software von Aflorithmic erstellt die Audioproduktionen mit synthetischen Stimmen, wobei Sprecher:innen und Sprechgeschwindigkeit variabel einstellbar sind. Über die Plattform von Storyflash können die Inhalte dann automatisch generiert und über verschiedene Kanäle verteilt werden.
Die die Technik von Storyflash zum Erstellen von Social-Media-Posts funktioniert aktuell nur für Facebook und Instagram, künftig sollen auch Snapchat, Tiktok und Twitter automatisch bedient werden können. Parallel arbeitet Storyflash an einer Lösung, mit der sich automatisch 30- bis 60-sekündige Videos erstellen lassen. Bei Podcasts wiederum soll es eine Drag-and-Drop-Funktion geben, mit der beispielsweise Jingles oder O-Töne mit einem Klick in den automatisch erstellten Podcast eingebaut werden können. Und auch die Qualität der Texterkennung will Storyflash weiter verbessern, damit das System künftig Texte auch automatisch verbessern kann. HNA-Digitalteam-Leiterin Marie Klement sagt, sie würden aktuell beispielsweise immer noch händisch die Ortsmarke aus den Texten entfernen, bevor sie in gesprochenene Sprache umgewandelt werden.
In Hamburg gibt es mit Bottalk einen Storyflash-Konkurrenten
Nico Lumma ist dennoch begeistert, was inzwischen alles möglich ist. „Die Entwicklung im Bereich synthetic speech ist phänomenal“, sagt der Managing Partner beim Hamburger Next Media Accelerator, der nach Innovationen im Medienbereich sucht: „Innerhalb weniger Jahre konnte die Qualität stark verbessert werden und ist kaum noch von der menschlichen Stimme unterscheidbar“. Aus Sicht von Nico Lumma bietet die Technik Verlagen die Möglichkeit, bestehende Inhalte auch als Audio-Format aufzubereiten und damit Abonnenten einen weiteren Zugang zu Inhalten anzubieten.
Einer der Teilnehmer an dem Programm des Accelerators war in der Vergangenheit das Startup Bottalk. In Hamburg haben die beiden Gründer Andrey Esaulov und Kirill Kholodilin in den vergangenen Jahren ebenfalls an einer Lösung gearbeitet, mit der Medienhäuser aus ihren Texten Podcasts und andere Audio-Formate machen können. Zu den Kunden zählen heute unter anderem das Hamburger Abendblatt, die Neue Osnabrücker Zeitung oder die Nachrichtenagentur Dpa. Kürzlich hat Bottalk sogar damit begonnen, ganze Bücher zu vertonen.
„Unterschiede erkennt man oft nur am Atmen“
Egal ob bei Storyflash oder Bottalk: Die Podcasts klingen erstaunlich gut. Dennoch erkennt man noch den Unterschied zu einem von echten Menschen gelesenen Text. „Man erkennt den Unterschied zu einer echten Stimme oft nur am Atmen. Aber das fällt gerade bei News-Podcasts praktisch nicht auf, weil es den Hörern da stark um den Inhalt geht“, sagt Clas Jelinek.
Auch HNA-Journalistin Marie Klement ist zufrieden: „Ich dachte erst, die Computer-Stimme würde wie bei einem Navi fürs Auto klingen. Aber das ist nicht so. Klar, bei ein paar Ortsnamen wie Bad Hersfeld merkt man manchmal, dass sie nicht richtig ausgesprochen werden. Aber das könnten wir theoretisch nach und nach verbessern. Von den Hörern kam bislang überhaupt keine Kritik.“