In diesem Artikel befassen wir uns mit folgenden Fragen:
Kürzlich wurde eine neue Umfrage zur Finanzbranche veröffentlicht. An dieser Umfrage nahmen hundert Fachleute aus den Bereichen Kreditvergabe, Hedgefonds, Bankwesen und Versicherungen in den USA und Großbritannien teil. Der Bericht hob hervor, dass die überwiegende Mehrheit der Finanzinstitute versteht, dass sie auf externe Datenquellen angewiesen sind. Allerdings verfügen große Teile dieses dynamischen Sektors weder über das interne Wissen noch über die Fachkompetenz, um alternative Daten richtig zu analysieren und daraus echte operative Vorteile zu ziehen. Dieser Artikel konzentriert sich sowohl auf die Herausforderungen als auch auf die technologischen Bewältigungsmechanismen, die derzeit von den Akteuren der Branche eingesetzt werden.
Bildquelle: Bright Data
Was sind die größten Hindernisse für die Integration von alternativen Daten im Kontext der Finanzbranche?
„Zu den wichtigsten Hindernissen für die Integration alternativer Daten im Kontext des Big Finance gehören Probleme auf der Analyse ebene. 61 % der Befragten* nannten dies als ihre wahrscheinlichste Herausforderung, während 53 % die Datenbeschaffung als ihre größte Herausforderung angaben.“
Wichtigste Hindernisse für die Analyse alternativer Daten im Finanzsektor
Basierend auf den Umfrageergebnissen:
„64 % der Finanzdienstleister* nutzen alternative Daten als Teil der Formulierung ihrer laufenden Anlagestrategien.“
Probleme treten jedoch auf, wenn Portfoliomanager mit der Datenbeschaffung beginnen:
- Aus einer Vielzahl von Quellen
- In extrem hohen Mengen
Auch Datenanalystenteams stehen vor Herausforderungen, insbesondere in Bezug auf die Qualität und Kompatibilität der gesammelten Daten, die in Investitionsalgorithmen einfließen. Dies gilt insbesondere für semi-strukturierte/unstrukturierte Daten, die sich nur schwer in datenbasierte Handelsmodelle mit einzigartigen Voreinstellungen integrieren lassen. Dies ist der Kern des Problems für viele Finanzinstitute, denen die Cyber-Infrastruktur fehlt, um alternative Datensätze effektiv zu verarbeiten und miteinander zu verknüpfen.
In Verbindung mit einem echten Mangel an qualifizierten Arbeitskräften, die in den neuesten Datenerfassungs- und -verarbeitungstechniken geschult sind, führt dies zu Hindernissen für Unternehmen in der gesamten Finanzlandschaft.
Schließlich fällt es Finanzorganisationen zunehmend schwer, die von ihnen selbst festgelegten Standards für Datenagilität zu erfüllen. Sie sammeln Zieldaten und speichern sie in Reservoirs von der Größe des Lake Superior, scheinen aber dennoch nicht in der Lage zu sein, sie aus ihrem Kontext zu lösen, um daraus umfassendere Schlussfolgerungen zu ziehen, die zu sinnvolleren Monetarisierungsmöglichkeiten führen könnten.
Wichtige Herausforderungen bei der Datenbeschaffung
Die Schwierigkeiten bei der Datenanalyse sind miteinander verknüpft und überschneiden sich in gewisser Weise mit den Hindernissen bei der Datenbeschaffung. Zu den größten Herausforderungen bei der Datenbeschaffung gehören
Datenidentifizierung – Dies bedeutet, dass man in der Lage sein muss, Datensätze, die Metadaten enthalten, anhand von Anwendungsfällen und Anlageklassen zu erkennen und kategorisch zu organisieren, was erhebliche operative Auswirkungen haben kann.
Prozessreplizierbarkeit – Oftmals sind Teams in der Lage, einmalige Datensätze zu beschaffen, weil bestimmte Informationen online verfügbar sind oder andere Sonderfälle vorliegen. Unternehmen benötigen jedoch einen zuverlässigen und konsistenten Datenfluss.
Informationsqualität – KI und ML durchlaufen eine wichtige „Trainingsphase”. In dieser Phase müssen sie mit sauberen und rückverfolgbaren Daten gefüttert werden, damit ihre Ergebnisse qualitativ hochwertig und genau sind. Zeitverzögerungen oder Beschädigungen von Geodateien können beispielsweise algorithmische Erkenntnisse, z. B. welche Wertpapierpositionen zu welchem Zeitpunkt geschlossen werden sollten, erheblich beeinträchtigen.
Unterschiedliche Quellen – Daten stammen nicht alle aus derselben Quelle oder im selben Format. Einige Daten stammen möglicherweise aus sozialen Plattformen, während andere aus Suchmaschinenergebnissen und/oder Unterlagen der Securities and Exchange Commission (SEC) stammen. Die Formate können von Video- und Sprachdateien bis hin zu Text- und Systemprotokollen reichen. Die Aggregation und Querverweisung dieser Daten in einem einheitlichen System kann eine Herausforderung darstellen.
Wie Finanzinstitute trotz Herausforderungen erfolgreich sind
Immer mehr Finanzinstitute erkennen die Vorteile der Auslagerung ihrer Datenerfassung. Dies geschieht entweder in Form des Kaufs gebrauchsfertiger Datensätze oder durch die Anbindung von Systemen und Teams mit Tools, die einen automatisierten Live-Datenstrom bereitstellen.
Dieser Ansatz beseitigt die meisten Herausforderungen in der Analysephase, da Datenerfassungsnetzwerke in der Lage sind
- Datensätze an die spezifischen Bedürfnisse Ihres Unternehmens anpassen
- Sicherstellen, dass die Ein- und Ausgabe in Ihrem gewünschten Dateiformat erfolgt, was eine mühelosere Integration von Daten aus unterschiedlichen Quellen ermöglicht
- Ihnen helfen, Investitionen in kostspielige Datensysteme und Datenerfassungsspezialisten zu vermeiden
- Geben Sie Ihrem Fonds die Flexibilität, Datenerfassungsvorgänge auf Projektbasis zu aktivieren und zu deaktivieren (allgemein bekannt als „Data on Demand“).
Dieser Ansatz kann auch eine sinnvolle Wahl für kleinere Boutique-Büros sein, die sich auf datengesteuerte Investitionen konzentrieren möchten und nicht möchten, dass die Datenerfassung den Großteil ihrer Zeit in Anspruch nimmt.
Die wichtigsten Vorteile der Behandlung von Daten als Ware im Kontext von Finanzdienstleistungen und Investitionen sind:
Sie erhalten einen Echtzeit-Datenfluss mit geringer Latenz, um sofortige operative Entscheidungen (Kauf, Verkauf, Leerverkauf usw.) zu treffen.
KI- und ML-Training sowie die Anpassungwerden viel zugänglicher und einfacher, sodass die Erstellung und das Testen schneller Handelsmodelle für die Teammitglieder zur Selbstverständlichkeit wird.
Schnelle und problemloseSkalierung des Betriebsnach oben oder unten
Keine Notwendigkeitmehr, teure Hardware, Software und proprietäre Protokolle/APIs zu kaufen/entwickeln
Freigabe schwer zugänglicher oder absichtlich nicht auffindbarer Datensätze, wie im Fall amerikanischer Krankenhäuser, die sich bemühten, die Verfahrensraten mithilfe eines bestimmten Code-Schnipsels zu verbergen
Fazit
Die Erfassung und Implementierung von Altdaten befindet sich im Finanzsektor noch in der „Einführungsphase”, was bedeutet, dass es noch Spielraum für einen erheblichen „Informationsvorteil” gibt.
Obwohl die meisten Institutionen wissen, dass sie von der Nutzung externer Daten stark profitieren können, fehlt vielen die Fähigkeit oder das Fachwissen, diese Daten richtig zu analysieren und zu nutzen.
Daraus folgt, dass die „Datenwertschöpfungskette” im Vergleich zu den meisten anderen Informationsgütern in einem umgekehrten Verhältnis zu Volumen, Kosten, Qualität und Output steht. So hat beispielsweise die Erfassung einer geringeren Menge hochwertiger strukturierter Daten, die automatisch an Investitionsmodelle, Algorithmen und Analysten geliefert werden, einen viel höheren Return on Investment (ROI) als eine große Menge unstrukturierter Daten, die aus unterschiedlichen Quellen und Formaten stammen.
Daraus folgt, dass Finanzunternehmen und Fintechs über eine klare Strategie für die Datenerfassung und -verwaltung verfügen müssen , die eine Automatisierung der Datenbeschaffung umfasst, um eine bessere Vermögensverwaltung und Portfoliostrukturierung zu ermöglichen.
* Diese Daten basieren auf den Antworten der Befragten, deren Unternehmen alternative Daten verwenden.