Rationalisierung der Katalogisierung digitaler Assets mithilfe von KI und Daten aus der Lieferkette für digitale Assets

Zuletzt aktualisiert

24 Jul

2025

Von

Ralph Windsor

Dauer

x

min

Veröffentlicht am

Von

Rationalisierung der Katalogisierung digitaler Assets mithilfe von KI und Daten aus der Lieferkette für digitale Assets
SCHNELL-LINKS
Dunkler Modus
Dunkler Modus
In den Lichtmodus wechseln
In den Dunkelmodus wechseln

Übersicht

Bis vor kurzem beschränkte sich der Einsatz von KI im Digital Asset Management (DAM) auf die automatische Kennzeichnung, einige spezielle Anwendungsfälle wie die Gesichtserkennung und eine gewisse Integration mit generativer KI zur Veränderung von Bildbeständen. Diese Techniken basieren alle auf den Pixeln, aus denen das Bild besteht, und haben daher keinen Kontext. Dies liegt daran, dass die meisten Modelle auf generischen oder verbraucherorientierten Datensätzen, wie z. B. Bildbibliotheken, trainiert wurden. Infolgedessen halten viele DAM-Anwender die Ergebnisse für unzuverlässig und für ihre Branche oder Nische für unbrauchbar und bitten die Anbieter oft, sie zu deaktivieren.

Das zeitaufwändigste Element des DAM-Prozesses ist die Katalogisierung digitaler Assets mit beschreibenden Metadaten. Dabei geht es nicht nur um die Verschlagwortung oder das Hinzufügen von Schlüsselwörtern, sondern auch um alle möglichen anderen damit verbundenen Prozesse, wie z. B. die Ermöglichung der nachgelagerten Integration mit anderen Lösungen, die Verwaltung von Rechten und erweiterte Asset-Analysen/Berichte. Wenn die richtigen Metadaten nicht vorhanden sind, werden diese Initiativen sehr viel schwieriger, wenn nicht sogar unmöglich, erfolgreich umzusetzen.

Die vollautomatische Katalogisierung digitaler Metadaten ist nach wie vor der heilige Gral des DAM, und es besteht die Hoffnung (wenn nicht gar die Erwartung), dass KI-Tools wie LLMs (Large Language Models) eine Lösung bieten werden, die dies eines Tages Wirklichkeit werden lässt. Leider deutet schon diese Analogie darauf hin, wie wahrscheinlich es ist, dass dieses Ziel jemals vollständig erreicht werden wird. Dennoch besteht eindeutig ein gewisses Potenzial zur Rationalisierung der Asset-Katalogisierung, und die KI bietet eine Reihe von Werkzeugen und Techniken, die möglicherweise nützlich sein könnten. Sofern die KI beratend tätig wird (und die menschlichen Endnutzer die Kontrolle über den Prozess behalten), könnten die Risiken der Erzeugung großer Mengen nutzloser Metadaten durch die Industrialisierung des Katalogisierungsprozesses theoretisch beherrscht werden.

In diesem Artikel möchten wir einige potenzielle Techniken und Taktiken untersuchen, die DAM-Anwender und -Anbieter einsetzen können, um die Katalogisierung digitaler Assets zu optimieren .

Die Stärken der KI nutzbar machen

Untersuchen wir zunächst, wo die aktuelle KI-Technologie die erfolgreichsten Ergebnisse erzielt. Es gibt zwei spezifische Kriterien, die beide gute Prädiktoren für erfolgreiche KI-Lösungen sind:

  • Die zu verarbeitenden Daten sind genauer definiert. Vereinfacht ausgedrückt handelt es sich um Text und nicht um subjektives Material wie Bilder. Es kann sich aber auch um numerische Daten wie Indizes handeln, die Zustände oder Werte darstellen, zum Beispiel ein kontrolliertes Vokabular.
  • Der Problembereich (oder Kontext) ist enger gefasst und/oder wurde bereits definiert, bevor die KI versucht, daraus Schlüsse zu ziehen. So ist beispielsweise die Gesichtserkennung im Allgemeinen recht effektiv, ebenso wie Spiele mit klaren Regeln wie Schach, Go usw.

Bei aller Raffinesse und Komplexität, die diesen Werkzeugen nachgesagt wird, sind KI-Systeme dort am erfolgreichsten, wo sie am wenigsten denken müssen (oder zumindest die Illusion erwecken, dass dies der Fall ist). Diese beiden Tatsachen bieten einige Anhaltspunkte dafür, wie KI eingesetzt werden kann, um den Prozess der Katalogisierung digitaler Bestände zu rationalisieren. 

Eintritt in die Lieferketten für digitale Güter

Die Etappen, die ein digitales Gut von der Entstehung über die Katalogisierung bis zur Verbreitung durchläuft, bilden seine Lieferkette. An jedem dieser Punkte werden Daten erzeugt. Die meisten dieser Daten sind Textdaten, und es gibt bestimmte Stufen, in denen die Bestände beginnen, normalisierte Metadaten (d. h. Kategorien oder Klassifizierungen) zu erhalten.

Moderne DAMs können mit Flughäfen verglichen werden. Was auf Flughäfen geschieht, ist den Aktivitäten in DAMs bemerkenswert ähnlich. Die Passagiere kommen an, werden kontrolliert, geleitet und zu bestimmten Zielen gruppiert, die von Fluggesellschaften angeflogen werden, wo sie dann in Flugzeugen abheben, die sie zu ihrem Ziel bringen. In jeder dieser Phasen werden die Passagiere in immer spezifischere Gruppen eingeteilt, um sie zu ihren Zielorten zu befördern. 

In Bezug auf DAM sind die Passagiere analog zu Assets; die Prüf- und Gruppierungsphase kann mit Genehmigungsworkflow und Metadaten verglichen werden; die Fluggesellschaften und Flugzeuge sind Integrationskonnektoren und APIs zu Plattformen wie WCMs, mobilen Apps, CRM, sozialen Medien usw. (d.h. nachgelagerte Ziele).

Lange bevor ein Passagier oder eine Ware am Flughafen ankommt, gibt es ein beträchtliches Maß an Vorbereitung, Entscheidungsfindung und Planung, um den Prozess zu rationalisieren und so effizient wie möglich zu gestalten. Dies ist der Kontext oder der Grund, warum die Entscheidung für eine Reise überhaupt getroffen wurde - und das ist es, was bei den meisten bisherigen Versuchen, KI im DAM erfolgreich einzusetzen, fehlt.

Nutzung von Daten ab dem Beginn der Lieferkette für digitale Assets

Der Lebenszyklus aller digitalen Assets beginnt eigentlich lange bevor sie existieren. Bevor Assets entstehen, gibt es in der Regel E-Mails, Meetings und Diskussionen auf Plattformen wie Slack, Teams, Zoom usw. über ein bestimmtes Projekt, eine Initiative, ein neues Produkt oder eine neue Dienstleistung.

 Jedes dieser Verfahren erzeugt Daten, die von KI-Tools analysiert werden können. Im Falle von Besprechungen ist es heute ein Leichtes, diese aufzuzeichnen, und die Software zur Transkription von Sprache in Text ist heute im Allgemeinen zuverlässig genug für den Produktionseinsatz. E-Mails sind natürlich bereits Text, und einem KI-Agenten eine E-Mail-Adresse zur Verfügung zu stellen, damit er Konversationen verarbeiten kann, ist ziemlich trivial zu implementieren. 

Wie man sieht, ist es ein Leichtes, einem KI-Tool wie einem LLM Zugang zu dem Kontext, den Diskussionen und den Hintergründen zu verschaffen, die zu den ursprünglichen Entscheidungen über die Auftragsvergabe für die Produktion digitaler Bestände geführt haben. Dadurch wird es für LLMs möglich, einige Schlussfolgerungen und Vorhersagen darüber zu treffen, welche Schlüsselwörter für Katalogisierungszwecke verwendet werden. Wenn dies mit einer Unternehmenstaxonomie kombiniert wird, z. B. der Art, die in Lösungen für das Stammdatenmanagement verwendet wird (oder einer anderen Form des kontrollierten Vokabulars), um zu bestimmen, welche Begriffe für Katalogisierungszwecke akzeptabel sind, dann ist es möglich zu sehen, wie LLMs in der Lage sein könnten, einen Teil der Katalogisierungsarbeit zu automatisieren. Der LLM leitet aus den Daten der Textquelle einige vorgeschlagene Tags ab, die mit einer Liste genehmigter Werte verglichen werden, und nur wenn eine Übereinstimmung vorliegt, wird der Vorschlag akzeptiert.

Dies ist eine bemerkenswert schnelle und relativ einfache Art und Weise, wie ein LLM in Kombination mit einigen grundlegenden KI-Technologien wie Transkriptionstools eingesetzt werden kann, um einen Teil der Katalogisierungsarbeit abzunehmen.

Autonome Agenten

Ein neuer Bereich der künstlichen Intelligenz mit direkter und wachsender Relevanz für DAM ist die Verwendung von autonomen Agenten. Diese werden durch fortschrittliches maschinelles Lernen und logisches Denken angetrieben und können innerhalb eines DAM-Systems semi-unabhängig arbeiten, um Routineaufgaben auszuführen und eine proaktive Governance zu fördern. 

Wenn das DAM ein umfassendes Prüfprotokoll führt, das alle Benutzeraktivitäten wie Uploads, Downloads, Bearbeitungen, Genehmigungen und Freigabeereignisse aufzeichnet, ist es für einen Agenten relativ einfach, Verhaltensmuster zu analysieren, Anomalien zu erkennen, Vorhersagen zu treffen und Governance-orientierte Eingriffe zu empfehlen. 

So könnte ein Agent beispielsweise fehlende oder inkonsistente Metadaten kennzeichnen, Administratoren benachrichtigen, wenn die Überprüfung von Assets überfällig ist, oder automatisch vordefinierte Workflows auslösen, um Compliance- oder Markenstandards einzuhalten. 

Wenn diese Agenten darüber hinaus Zugriff auf einen breiteren Datensatz aus der Digital Asset Supply Chain erhalten, einschließlich Projektbeschreibungen, Genehmigungshistorien, Metriken zur Nutzung von Inhalten und Kampagnenzeitplänen, können sie umfassendere Schlüsse ziehen, aus historischen Mustern lernen und ihre Entscheidungsfindung und Aufgabenausführung im Laufe der Zeit kontinuierlich optimieren. Dadurch wird das DAM von einem passiven Repository zu einem intelligenten, adaptiven System, das das Content Lifecycle Management in Echtzeit unterstützt.

LLMs Begründungen 

Große Sprachmodelle wie GPT-o3 von OpenAI oder Claude4 von Anthropic sind zunehmend in der Lage, komplexe Schlussfolgerungen aus unstrukturierten und halbstrukturierten Unternehmensdaten zu ziehen. Dies eröffnet eine Chance in der Lieferkette für digitale Vermögenswerte, noch bevor diese existieren (wie bereits beschrieben).

Durch die Integration dieser Modelle in die strukturierte Taxonomie eines Unternehmens, einschließlich der kontrollierten Vokabulare, können Organisationen schrittweise eine kontextbezogene Kennzeichnung ermöglichen, die die Assets mit ihrem beabsichtigten Zweck verbindet, anstatt nur ihren oberflächlichen Inhalt zu beschreiben.

Anstatt beispielsweise ein Bild einfach als "Frau am Strand bei Sonnenuntergang" zu kennzeichnen, könnte ein LLM, das auf vorgelagerten Daten basiert, es als "Q3 2025 Lifestyle-Bilder für Produkt X, Zielgruppe: Gen Z Wellness, Teil der Sommerkampagne zur Markenauffrischung" kennzeichnen. Diese tiefgreifenden Metadaten könnten das Asset während seines gesamten Lebenszyklus begleiten und die Durchsuchbarkeit, Rechteverwaltung, Leistungsanalyse und zukünftige Wiederverwendung unterstützen.

Diese Form der semantischen Anreicherung (basierend auf menschlicher Absicht und geschäftlichem Kontext) hat das Potenzial, weitaus aussagekräftiger zu sein als Metadaten, die ausschließlich durch pixelbasierte KI-Modelle erzeugt werden. Dadurch wird DAM nicht nur zu einer Speicherlösung, sondern zu einer intelligenten Erzählschicht, die das "Warum" hinter jedem Asset versteht.

Der Wert von Metadatenschemata und fortschrittlicher Metadatenverwaltung in DAMs

In letzter Zeit haben einige weniger aufgeklärte DAM-Anbieter versucht, die Benutzer dazu zu bringen, die Metadatenschemata zu stark zu vereinfachen und sich mehr auf unstrukturierte Daten wie Textfelder zu verlassen. Dahinter steht die Überlegung, dass komplexe Metadaten nicht mehr benötigt werden, weil die KI-Tools die gesamte Katalogisierung übernehmen.

Damit KI wirksam ist, muss noch mehr Zeit und Mühe in die Gestaltung von Metadatenschemata investiert werden. Es ist bei weitem vorzuziehen, dass die Metadateneingabe kontrolliert und nicht als Freitext erfolgt. Wie bereits erwähnt, funktioniert KI am besten, wenn sie weniger denken muss, was wiederum voraussetzt, dass der Mensch mehr denken muss. 

Ziel ist es, die "Denkzeit" des Menschen so weit wie möglich zu nutzen, anstatt sie zu verkürzen, um schlecht umgesetzte Technologieentscheidungen zu berücksichtigen. Eine sorgfältig durchdachte Metadatenstrategie kann eine stärkere und effektivere Nutzung von KI ermöglichen, so dass die Menschen viel weniger manuelle Katalogisierungsarbeit leisten müssen und mehr Zeit für die umfassendere Strategie des Unternehmens für digitale Bestände aufwenden können.

Fazit

Qualitativ hochwertige beschreibende Metadaten, die sowohl wortwörtlich als auch themenspezifisch sind, bleiben für Enterprise DAM unerlässlich. Digital Asset Management-Initiativen mit minderwertigen Metadaten sind fast immer auch diejenigen, die einen schlechten ROI aufweisen. Es spielt keine Rolle, wie viel KI Sie in den Mix einbringen, wenn Sie ein wichtiges Asset nicht finden können - selbst mit generativen KI-Funktionen, die versuchen könnten, eine Alternative für Sie zu generieren -, dann wird die Akzeptanz (und damit der ROI) zweifellos leiden.

Dennoch gibt es eindeutig ein gewisses Potenzial für die DAM-Technologie, sowohl die KI als auch die Daten, die bereits über die Lieferketten digitaler Assets generiert werden, zu nutzen, um die Katalogisierung schrittweise zu rationalisieren. Wie all dies in 10 (oder sogar zwanzig) Jahren aussehen wird, ist schwer vorherzusagen, aber selbst wenn heilige Grale außerordentlich schwer zu finden sind, bedeutet das nicht, dass eine kosteneffiziente und wissenschaftlich fundierte Suche nach ihnen nicht erstrebenswert ist.

Artikel, die Sie auch interessieren könnten

Erhalten Sie weitere Marketing-Tipps & Neuigkeiten direkt in Ihr E-Mail-Postfach