consenso Intelligent Data Modelling

Unser digitaler Baukasten für die Optimierung der Anlage & Pflege von Stamm- und Bewegungsdaten in Ihrem SAP System.

Erfolgsfaktor Datenqualität. Schlüssel für steigende Umsätze und niedrigere Kosten

Mängel in Ihren Stammdatenprozessen und in der Qualität Ihrer Stamm- und Bewegungsdaten führen spätestens nachgelagert zu Umsatzeinbußen und höheren Kosten. Nicht erreichte Kunden, fehlerhafte Preise, Probleme in der Lieferkette, erhöhte Aufwände durch eine komplexe und häufig manuelle (Nach-) Pflege der Daten.

Die Probleme lassen sich beziffern. So führt eine mangelnde Datenqualität in US-Unternehmen jährlich zu 1,3 Billionen Dollar Verlusten. 47 % der Unternehmen geben an, durch schlechte Daten Kunden verloren zu haben und 33 % berichten negative Auswirkungen auf den Umsatz.

Mit dem Intelligent Data Modelling bietet consenso Ihnen eine Beratungslösung, mit der Sie die Qualität Ihrer Stamm- und Bewegungsdaten in Ihrem SAP S/4HANA-System nachhaltig verbessern - integriert in den SAP-Standard und ohne zusätzliche Lizenzkosten.

Ein Service - viele Bausteine. Passende Lösungen für Ihre Anforderungen

Einer der vielen Vorteile unseres Intelligent Data Modelling ist der modulare Aufbau. Unser Service kommt als Baukasten mit mehreren unabhängig voneinander einsetzbaren Modulen, die Sie über den gesamten Datenpflegeprozess hinweg unterstützen:

EXTRACT - TRANSFORM - LOAD (ETL)

Unsere Lösung für die Datenintegration. Mit ETL können Sie Echtzeitdaten in vielfältigen Formaten und Inhalten laden und dabei eine umfassende Validierung und Bereinigung der Daten durchführen.

Die Details:

Unser ETL-Tool ermöglicht Ihnen eine umfassende Verarbeitung von Dateien, unabhängig von deren Format oder Struktur. Es kann strukturierte Datenbanktabellen oder semi-strukturierte Excel-, csv.- oder txt.-Dateien nahtlos verarbeiten, was die Integration von Daten aus verschiedenen Quellen stark vereinfacht. Und Sie haben die Möglichkeit, verschiedene Arten von Schnittstellen anzubinden.

Die ETL-Flexibilität erlaubt es, die gelieferten Felder der Inputdatei (z.B. Preislisten von Lieferanten) nach Bedarf zu mappen und zu gestalten. Dies erfolgt benutzerfreundlich durch Drag & Drop. Eine Vielzahl von verschiedenen Funktionen steht zur Verfügung, um die Daten der Quelldatei so zu transformieren, dass sie den verschiedenen Datenschemata und Geschäftsanforderungen entsprechen. Durch die Option, Bedingungen mit den Funktionen zu verknüpfen, kann die Ausgabe weiter präzisiert werden.

Die strukturierte und intuitive Oberfläche der Fiori-App erlaubt es auch Anwendern ohne IT-Kenntnisse, die Transformationsschritte und den Zeitpunkt der Zuordnung zu definieren. So wird zur Verarbeitung einer neuen Preisliste einfach ein Lauf erstellt und angestoßen, der die vordefinierten Schritte des Mappings ausführt. Durch das Delta-Laden werden dabei nur die Daten angelegt oder aktualisiert, die sich seit dem letzten Update geändert haben. Nach der initialen Definition kann das ETL-Tool weitere Daten automatisiert in das System integrieren.

schliessen-BITTE NICHT LÖSCHEN

 

DATA MINING & PROFILING (DMP)

Das DMP hilft Ihnen, Daten zu analysieren, um ein klares Verständnis und einen Überblick über deren Struktur, Inhalt und Qualität zu gewinnen.

Die Details:

Durch die Definition von Datenqualitätsregeln und deren systematische Katalogisierung im Repository entsteht eine klare Strukturierung der Qualitätsrichtlinien. Das im S/4HANA enthaltene BRF+ sowie eine integrierte Funktion im DMP ermöglichen eine intuitive Modellierung und Verwaltung, um die Regeln umzusetzen und komplexe Geschäftslogiken in das System zu integrieren. Über die Benutzeroberfläche der Fiori-App können auch Anwender ohne IT-Kenntnisse die Qualitätsprüfung der Daten managen.

Ein integraler Bestandteil des Regelverwaltungsprozesses ist die Konfiguration eines Datenqualitätsindex. Hierbei wird festgelegt, wie dieser Index auf Basis von Stammdaten und in Verbindung mit den definierten Datenqualitätsregeln berechnet wird. Der Datenqualitätsindex bietet eine quantitative Metrik zur Bewertung der Qualität der Daten - Basis für die Einleitung gezielter Maßnahmen zu deren Verbesserung.

Die definierten Datenqualitätsregeln werden dabei für aktive Auswertungen und Prüfungen von Daten verwendet. Die Durchführung der Prüfungsläufe kann einfach und effizient in einer übersichtlichen Benutzeroberfläche gesteuert und als Job eingerichtet werden. Dies ermöglicht eine kontinuierliche Überwachung und Bewertung der Datenqualität. Potenzielle Qualitätsprobleme können so frühzeitig erkannt und behoben werden.

Durch Integration in das Data Process Stream (DPS)-Modul ist eine automatisierte Bereinigung fehlerhafter Daten möglich. Zudem ermöglicht eine Anbindung weiterer Systeme über Mechanismen wie Smart Data Access den Zugriff auf externe Daten und entsprechende Prüfungen. Eine Integration der definierten Regeln in den Prozess der Neuanlage ermöglicht es, potenziell fehlerhafte Eingaben bereits im Ansatz zu verhindern.

schliessen-BITTE NICHT LÖSCHEN

 

DUBLETTENPRÜFUNG (DDC)

Unser DDC (Data Duplicate Check) unterstützt Sie bei Identifizierung, Erkennung und Bearbeitung von Duplikaten in Ihren Stamm- und Bewegungsdaten.

Die Details:

Das DDC ermöglicht Ihnen eine effiziente Verwaltung individueller Dublettenläufe. Via Customizing werden maßgeschneiderte Auswertungen mit verschiedenen Prüfregeln definiert. Das Modul ermöglicht die Überprüfung aller SAP-Tabellen - und damit sowohl Stamm- als auch Bewegungsdaten - anhand dieser Regeln. Nach der initialen Definition können die Prüfungen über eine benutzerfreundliche Oberfläche automatisiert durchgeführt werden.

Neben der Überprüfung interner Daten im System ermöglicht die Integration einer Importfunktion auch das direkte Importieren von Daten aus beispielsweise einer Excel-Datei und den Abgleich mit den Datenbanktabellen im System. Use Cases sind u.a. klassische Migrationsarbeiten (z.B. im Rahmen einer S/4HANA Conversion) oder Preisvergleiche (z.B. Zuordnung von Artikelpreisen aus einem Web Crawling und den bereits im System vorhandenen Artikeln).

Bei der Ausführung einer Prüfung werden Bedingungen festgelegt, um die untersuchten Daten zu begrenzen und das Ergebnis weiter zu verfeinern. Nach erfolgreichem Abschluss der Dublettenprüfung werden klare Ergebniswerte für jede potenzielle Dublette präsentiert. Diese Ergebnisse bieten eine strukturierte Grundlage für die gezielte Bearbeitung und Bereinigung von Duplikaten.

Die Dublettenprüfung kann nicht nur auf Bestandsdaten angewendet, sondern bereits in den Dialog zur Neuanlage integriert werden.

schliessen-BITTE NICHT LÖSCHEN

 

ANOMALIEERKENNUNG | RULE-MINING (DEA)

Mittels DEA (Data Embedding and Augmentation) lassen sich versteckte Muster in großen Stammdatensätzen erkennen, um mit Hilfe von Künstlicher Intelligenz Korrekturvorschläge für Stamm- und Bewegungsdaten zu generieren und Entscheidungen zu unterstützen.

Die Details:

Zusätzlich zu unserem bestehenden Regelwerk präsentieren wir erweiterte Lösungen im Bereich Data Mining auf Grundlage von PAL (Predictive Analysis Library) und APL (Analytic Processing Library). Diese Lösungen ermöglichen eine facettenreiche Datenanalyse, einschließlich Klassifizierung, Clustering (Profiling) und Anomalieerkennung.

Die Predictive Analysis Bibliothek bietet leistungsstarke statistische Algorithmen für umfassende Datenanalysen. Der Assoziationsalgorithmus im Rule Mining erkennt Muster und Regeln in Daten, bewertet sie statistisch und ermöglicht die Identifizierung versteckter Muster sowie Anomalien. Nach Überprüfung der Plausibilität liefern die ermittelten Regeln klare Einblicke in Datenzusammenhänge. In Stamm- und Bewegungsdaten deckt der Assoziationsalgorithmus auf, wie und warum bestimmte Datenelemente miteinander verbunden sind. Ein praktisches Beispiel hierfür ist die Analyse von Warenkörben, um festzustellen, welche Artikel häufig gemeinsam in Transaktionen auftreten. Der Anwender profitiert somit von einer automatisierten Analyse zur Entdeckung von Zusammenhängen in seinen Daten. Zusätzlich zum PAL-Algorithmus setzen wir verschiedene statistische Verfahren ein, darunter KI-Bibliotheken in Python, um Anomalien in den Daten zu identifizieren. Use Case hier ist z.B. die Analyse von Ausreißern in Bestell- oder Überweisungsvorgängen.

Die präsentierten Daten werden in übersichtlichen Dashboards dargestellt, die eine benutzerfreundliche Visualisierung und Interpretation ermöglichen. Von hier aus können Benutzer die Daten nahtlos weiterverarbeiten, um schnell fundierte Entscheidungen zu treffen und Maßnahmen abzuleiten. Die Ergebnisse integrieren wir je nach Anwendungsfall in die verschiedenen Module unseres iDM-Baukastens.

schliessen-BITTE NICHT LÖSCHEN

 

DATA PROCESS STREAM (DPS)

Das DPS ist als eine Klammer über die Module unseres Intelligent Data Modelling zu verstehen. Transformierte Daten aus dem ETL werden durch das DMP geprüft, mit passenden Artikeln gematcht (DDC), mithilfe von KI angereichert (DEA) und ins System integriert.

Die Details:

Das DPS ermöglicht die Abbildung von Prozessen, um Daten zu prüfen, zu bereinigen und Transaktionen durchzuführen. Dadurch ist es möglich, Stammdaten zu aktualisieren oder neu anzulegen oder Bewegungsdaten wie beispielsweise Bestellungen zu generieren.

Die einzelnen Schritte und ihre Reihenfolge lassen sich über das Customizing individuell anpassen. Unsere Anwendungen "Data Mining und Profiling" sowie die „Dublettenprüfung“ können hierbei nahtlos integriert und bestehende Auswertungen so in den verschiedenen Apps wiederverwendet werden. Durch die Integration von KI-Algorithmen ist es z.B. möglich, intelligente Vorhersagen für Warengruppen zu treffen oder Materialbezeichnungen sinnvoll auf 40 Zeichen zu kürzen. Vorschläge des Systems können durch den Anwender jederzeit übersteuert werden.

Die Anwendung bietet somit die Möglichkeit, zahlreiche Prozesse abzubilden, bei denen Daten transformiert, aufbereitet und anschließend im System weiterverarbeitet werden. Zusätzlich zur Anlage von Artikeln und Geschäftspartnern umfassen weitere Beispiele die Erfassung von Bestellungen über Excel sowie die Prüfung und Verbuchung von Verkaufsdaten aus verschiedenen Geschäften.

schliessen-BITTE NICHT LÖSCHEN

 

Das Wichtigste in Kürze

Gerne bringen wir Ihnen in einer persönlichen Präsentation die vielfältigen Funktionen und Nutzenpotenziale des consenso Intelligent Data Modelling näher und evaluieren mit Ihnen gemeinsam, wie wir Ihre individuellen Anforderungen am besten erfüllen können.

Kommen Sie einfach auf uns zu, wir freuen uns auf Sie! Zum Kontaktformular

Unseren Service auf einen Blick finden Sie hier: PDF

consenso Intelligent Data Modelling. In der Praxis erfolgreich erprobt...

Nutzen Sie die Bausteine unseres digitalen Services consenso Intelligent Data Modelling im Kontext der Anlage und Pflege Ihrer Stamm- und Bewegungsdaten. So erhöhen Sie nicht nur Ihren digitalen Reifegrad, Sie schaffen schnell messbaren Nutzen.

Beispiele für konkrete Use Cases finden sich in unseren Projekten:

 

  • Bei der Artikelanlage werden verschiedene Lieferanten-Preislisten mittels ETL transformiert, durch das DDC mit vorhandenen Artikeln abgeglichen, über das DMP überprüft und schließlich in das System integriert.
  • In der Immobilienwirtschaft werden Nebenkostenabrechnungen mit unterschiedlichen Strukturen mittels ETL transformiert, auf Anomalien geprüft, anschließend automatisch kontiert und den Kostenstellen zugewiesen.
  • Bei der Bestellanlage werden Bestellungen mit verschiedenen Formaten und Strukturen mittels ETL in das System geladen. Mit Hilfe von DDC wird überprüft, ob Artikel aktualisiert oder neu angelegt werden müssen, bevor automatisch eine Bestellung generiert wird.
  • Partner laden täglich ihre Verkaufsdaten hoch, die durch das ETL automatisch transformiert, auf Anomalien und Korrektheit geprüft und anschließend im System verbucht werden.

Unsere Kunden sprechen für uns! Beispiele für den Einsatz von Bausteinen des Intelligent Data Modelling in der Praxis finden sich auch in unseren Referenzprojekten:

  • Im September 2023 beauftragte die bayerische ERDINGER Weißbierbrauerei die consenso mit der Analyse der aktuellen Geschäftspartner- und Materialstammdaten. Das Ziel: deren Qualität signifikant verbessern und Potenziale aufzeigen, um diese dauerhaft zu erhöhen. Der Status: Mission erfolgreich abgeschlossen!
    Mehr erfahren
  • Um die Artikelpflege bei der AGRAVIS Raiffeisen AG dauerhaft mit einem möglichst geringen Aufwand sicherstellen zu können, werden die manuellen Leistungen der Mitarbeitenden im Stammdatenmanagement zukünftig durch künstliche Intelligenz unterstützt.
    Mehr erfahren

Weitere Berichte über uns und unsere Projekte finden Sie in unseren Projektstories

-->