Beispiel-Report · Daten anonymisiert. Dieser Report demonstriert das Liefer-Format eines ERPforgeAI DB-Volume-Audits anhand realer Tabellen-Inventar-Daten aus einem produktiv-laufenden DACH-Versorger-System (1.000 Tabellen, 993 GB DB-Volumen). System-IDs, Paket-Codes und Mitarbeiter-Identifikatoren wurden anonymisiert; Tabellennamen sind SAP-Standard und ohne Anonymisierungs-Bedarf.
[Beratung]
SAP S/4HANA Migration · DB-Volume-Audit
Mandant: [DACH-Versorger-System]
Audit-Datum: 2026-05-06
DB: Oracle · ECC 6.0 EHP8

DB-Volume-Audit — HANA-Sizing vor S/4-Migration

Erstellt im Rahmen der Vorbereitung auf die S/4HANA-Brownfield-Konvertierung. Pro Tabelle: DVM-Bucket-Empfehlung (Archive / Partition / Delete / Custom-Review / Keep) und HANA-Lizenz-Ersparnis-Spanne. Datenbasis: produktiv-laufendes Versorger-System, 1.000 Tabellen, 993 GB.

1. Executive Summary

Geschätzte HANA-Lizenz-Ersparnis pro Jahr
51.060 € – 63.135 €
Bei 75 € / GB / Jahr Lizenz-Rate. Reduzierbar: 681 – 842 GB von insgesamt 993 GB. Bei verhandelten 30 € / GB / Jahr: 20.424 € – 25.254 € / Jahr.
1.000
Tabellen analysiert
993 GB
DB-Volumen gesamt
681–842 GB
Reduzierbar
69–85 %
Reduktionspotenzial
Kernerkenntnis
Das System hat ein extrem konzentriertes Reduktionspotenzial: Eine einzige Tabelle — DBTABLOG mit 658 GB — dominiert 66 % des gesamten DB-Volumens. Diese Tabelle ist reines Logging ohne Retention-Politik und kann via einmaligem SE38-Cleanup-Skript praktisch komplett gelöscht werden. Damit allein lassen sich ~625 GB freisetzen vor der S/4-Migration. Die nächsten 9 Tabellen tragen je < 3 % bei. Quick Win mit hohem Impact — Empfehlung: Cleanup-Skript über Q-System validieren, dann produktiv ausrollen vor Migrations-Cutover.

2. DVM-Bucket-Verteilung

DELETE  Löschen (Logs, Trace, Queue-Residuen) 11 Tabellen · 711 GB · reduzierbar 604–711 GB
Log-/Trace-/Queue-Tabellen. Nahezu komplett löschbar mit einmaligem SE38-Cleanup-Skript. Kein Verlust geschäftsrelevanter Daten.
PARTITION  Partitionieren / Hot-Cold-Tiering 716 Tabellen · 184 GB · reduzierbar 36–74 GB
Range-Partitionierung nach GJAHR/BUDAT/MJAHR. Reduziert nicht die Bytes, ermöglicht aber Auslagerung kalter Partitionen auf HANA NSE / Cold Tier — effektive Lizenz-Ersparnis ca. 30 %.
ARCHIVE  Archivieren (SAP-Standard-Archivobjekt) 20 Tabellen · 58 GB · reduzierbar 35–46 GB
SAP-Standardtabelle mit etabliertem Archivobjekt. Retention-Policy festlegen (typisch: 2–3 Jahre online, älter via ADK + ILM). 60–85 % Datenvolumen-Reduktion bei 10+ Jahre alten ECC-Systemen ohne bisheriges DVM.
CUSTOM-REVIEW  Custom-Review (Z-Tabelle, Retention-Design) 156 Tabellen · 14 GB · reduzierbar 6–9 GB
Kunden-Z-Tabelle ohne SAP-Standard-Archivobjekt. Pro Tabelle: Owner identifizieren, Retention-Anforderung erheben, Strategie (Archiv-Äquivalent bzw. DELETE) festlegen. Aufwand pro Tabelle 1–3 PT.
KEEP  Behalten (Stamm-/Customizing-Daten) 97 Tabellen · 26 GB · reduzierbar 0–3 GB
Stamm- oder Customizing-Tabelle. Keine sinnvolle Reduktion via Archivierung — bleibt heiß im HANA-Speicher.

3. Top-10 Tabellen nach Größe

Tabelle GB Bucket Archivobjekt Beschreibung
DBTABLOG657,85DELETEProtokollsätze zu Tabellenänderungen
EIDESWTMSGDATA20,39PARTITIONNachrichtendaten zum Wechselbeleg
DBERCHZ120,03PARTITIONBelegeinzelzeilen IS-U
VRSX313,93ARCHIVERSVRSAVEMethoden-Versionsverwaltung
DFKKOP12,66ARCHIVEISU_BBPVAFI-CA Open Postings
REPOSRC11,04KEEPABAP Report Sourcen
DFKKCODCLUST9,77PARTITIONFI-CA Korrespondenzclusterdaten
DFKKOPBW9,56PARTITIONFI-CA OP Extraktion
SATC_AC_VERDCT_B9,17DELETEATC-Scan-Ergebnisse (regenerierbar)
WBCROSSGT9,02DELETEWorkbench Cross-Reference (rebuild via SCWB)
Empfohlene Vorgehensweise (Reihenfolge nach Impact):
  1. DBTABLOG — Cleanup-Skript via SE38 (RSTBPDEL/Custom). Pre-Migration. Impact: ~625 GB. Aufwand: 0,5 PT.
  2. WBCROSSGT, D010TAB, D010INC, SATC_* — Workbench- & ATC-Cache-Reorg. Auto-rebuild. Impact: ~25 GB. Aufwand: 0,5 PT.
  3. VRSX, VRSX3, VRSMODISRC — RSVRSAVE-Cleanup-Lauf. Impact: ~15 GB. Aufwand: 1 PT.
  4. FI-CA-Bereich (DFKKOP, DFKKOPBW, DFKKCODCLUST, ERCH/ERCHC) — ILM-Regeln + Archiv-Lauf ISU_BBPVA / ISU_BILL. Impact: ~50 GB. Aufwand: 5–8 PT.
  5. Custom-Z-Tabellen-Review — 156 Tabellen, je 1–3 PT Retention-Design. Hauptaufwand des Folge-Engagements.

4. Methodik & Annahmen

Die Analyse basiert auf dem hochgeladenen Tabellen-Inventar aus Z_ERPFORGE_04_TABLE_INVENTORY (ABAP via ADBC) bzw. oracle_table_inventory.sql (sqlplus). Sie ist eine Momentaufnahme zum Export-Zeitpunkt.

Bucket-Klassifikation kombiniert eine kuratierte Wissensbasis von 50+ SAP-Standardtabellen mit dokumentiertem Archivobjekt und Heuristiken für unbekannte Tabellen (Custom-Z = CUSTOM_REVIEW, Log-/Trace-Pattern = DELETE).

Reduktions-Spannen sind erste Anker aus öffentlichen DVM-Whitepapers + Hersteller-Benchmarks und werden mit jedem realen Audit präziser. Tatsächliche Reduktion hängt von Retention-Politik, Archiv-Reichweite (DART, ILM) und Datenstruktur ab.

HANA-Lizenz-Rate ist konfigurierbar (Default 75 €/GB/Jahr Listenpreis-Mitte). Verhandelte Tarife liegen oft bei 30–50 €/GB/Jahr. Der Kundenvertrag ist die maßgebliche Quelle — wir präsentieren bewusst Spannen, keine Punktwerte.

DB-Volume-Audit für Ihren Mandanten?

€4.500 fix · 7 Werktage Lieferung · White-Label-Report · Per-Tabelle Bucket-Empfehlung + HANA-Lizenz-Ersparnis-Spanne

Zu den Preisen →