Sensitive Data Protection – Preise

Auf dieser Seite finden Sie Informationen zu den Preisen für Sensitive Data Protection. Alle auf dieser Seite aufgelisteten Preise sind in US-Dollar ($) angegeben.

Bevor Sie den Dienst verwenden können, benötigt Sensitive Data Protection Zahlungsinformationen für alle Konten. In der Google Cloud Console können Sie sich auf der Abrechnungsseite Ihres Projekts für die Abrechnung anmelden.

Sensitive Data Protection berechnet die Nutzungspreise entsprechend der folgenden Preisübersicht. Am Ende jedes Abrechnungszeitraums wird eine Rechnung mit einer Auflistung der Nutzung und Kosten erstellt.

Auch beim vorzeitigen Abbruch eines laufenden Vorgangs entstehen Kosten für den bereits abgeschlossenen Teil.

Informationen zum Preismodell von Sensitive Data Protection

Der Preis für Sensitive Data Protection setzt sich aus drei Hauptkomponenten zusammen:

  • Unter Prüfung und Transformation – Preise werden die Kosten für das Prüfen und Transformieren von Daten durch Jobs und content-Methoden erläutert.
  • Unter Erkennung – Preise erfahren Sie mehr über die Kosten für das Erstellen allgemeiner Messwerte und Statistiken zu Ihren Daten.
  • Unter Risikoanalyse – Preise sind die Kosten für das Analysieren sensibler Daten aufgeschlüsselt, um Attribute zu finden, die das Risiko einer Identifikation von Personen erhöhen.

Prüfung und Transformation – Preise

Sensitive Data Protection bietet einige Features für die Prüfung und Transformation von Daten. In diesen Szenarien zahlen Sie nur für das, was Sie verwenden, ohne vorherige Verpflichtungen.

Prüfung und Transformation: unterstützte Features

Sensitive Data Protection unterstützt die in der folgenden Tabelle aufgeführten Features für die Prüfung und Transformation:

Feature Beschreibung
Prüfung mit integrierten infoType-Detektoren Jeder integrierte Klassifikator erkennt ein anderes Datenelement, z. B. Namen, Telefonnummern, E-Mail-Adressen, Sozialversicherungsnummern usw.
Prüfung mit benutzerdefinierten infoType-Detektoren Ermöglicht es, mit einem benutzerdefinierten Wörterbuch neue Elemente zu klassifizieren oder die vordefinierten infoTypes zu erweitern.
Entfernen von Daten aus Bildern Extrahiert Text aus Bildern, klassifiziert ihn und erzeugt ein neues Bild mit rechteckigen Feldern zur Maskierung der gefundenen Texte.
De-Identifikation Transformiert tabellarische Daten oder Freitextdaten, um diese nach Spalte, Eintrag oder infoType zu maskieren, zu entfernen oder zu verschleiern.

Prüfung und Transformation von Daten in Speichersystemen von Google Cloud

Mit der projects.dlpJobs.create-Methode können Sie einen Inspektionsjob erstellen, durch den bestimmte Speichersysteme von Google Cloud auf sensible Daten geprüft werden. Dieser wird nach den Preisen für Speicherinspektionsjobs abgerechnet. Wenn der Inspektionsjob auch zur De-Identifikation der Ergebnisse konfiguriert wurde, erfolgt außerdem eine Abrechnung nach den Preisen für Speichertransformationsjobs.

Speicherinspektionsjobs – Preise

Sensitive Data Protection-Speicherjobs werden nach geprüften Byte abgerechnet:

Pro Monat geprüfte Speicherdaten Preis pro Gigabyte (GB)
Bis zu 1 GB Kostenlos
1 GB bis 50 Terabyte (TB) 1,00 $
Mehr als 50 TB 0,75 $
Mehr als 500 TB 0,60 $

Wenn Sie einen Inspektionsjob zum Speichern von Ergebnissen in einer BigQuery-Tabelle konfigurieren, werden die Abrechnung und Kontingentnutzung für den tabledata.insertAll-Vorgang dem Projekt zugeschrieben, das die Zieltabelle enthält.

Informationen zur Prüfung von in Google Cloud gespeicherten Inhalten finden Sie unter Google Cloud-Speicher und ‑Datenbanken auf sensible Daten prüfen.

Preise für Speichertransformationsjobs

Sensitive Data Protection-Speicherjobs werden nach transformierten Byte abgerechnet:

Pro Monat transformierte Speicherdaten Preis pro Gigabyte (GB)
Bis zu 1 GB Kostenlos
1 GB bis 50 Terabyte (TB) 1,00 $
Mehr als 50 TB 0,75 $
Mehr als 500 TB 0,60 $

Wenn Sie die Transformationsdetails in einer BigQuery-Tabelle speichern, werden die Abrechnung und Kontingentnutzung für den tabledata.insertAll-Vorgang dem Projekt zugeschrieben, das die Zieltabelle enthält.

Informationen zur De-Identifikation von in Google Cloud gespeicherten Inhalten finden Sie unter Sensible Cloud Storage-Daten de-identifizieren.

Prüfung von Daten aus beliebigen Quellen

Mit der projects.dlpJobs.create-Methode können Sie einen Hybridjob erstellen, durch den jede beliebige Quelle, auch solche außerhalb von Google Cloud, auf sensible Daten geprüft wird. Mit dieser Methode geprüfte Daten werden nach Byte abgerechnet:

Pro Monat geprüfte Hybriddaten Preis pro GB
Bis zu 1 GB Kostenlos
Mehr als 1 GB 3,00 $
Mehr als 1 TB 2,00 $

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Pro Hybridprüfungsanfrage wird mindestens 1 KB in Rechnung gestellt.

Wenn Sie einen Hybridinspektionsjob zum Speichern von Ergebnissen in einer BigQuery-Tabelle konfigurieren, werden die Abrechnung und Kontingentnutzung für den tabledata.insertAll-Vorgang dem Projekt zugeschrieben, das die Zieltabelle enthält.

Informationen zum Prüfen von Daten aus beliebigen Quellen finden Sie unter Hybridjobs und Job-Trigger.

Prüfung und Transformation durch Inhaltsmethoden

Hier sehen Sie die Inhaltsmethoden und welche Vorgänge jeweils abgerechnet werden:

API-Methode Inhaltsprüfung Inhaltstransformation
projects.image.redact Ja Nein
projects.content.inspect Ja Nein
projects.content.deidentify Ja Ja
projects.content.reidentify Ja Ja

Geprüfte Inhalte – Preise

Mit der Sensitive Data Protection-Inhaltsmethode geprüfte Daten werden nach Byte abgerechnet:

Geprüfte Daten pro Monat Preis pro GB
Bis zu 1 GB Kostenlos
Mehr als 1 GB 3,00 $
Mehr als 1 TB 2,00 $

Transformierte Inhalte – Preise

Mit der Sensitive Data Protection-Inhaltsmethode transformierte Daten werden nach Byte abgerechnet:

Transformierte Daten pro Monat Preis pro GB
Bis zu 1 GB Kostenlos
Mehr als 1 GB 2,00 $
Mehr als 1 TB 1,00 $

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.

Pro Inhaltsprüfungs- bzw. Inhaltstransformationsanfrage wird mindestens 1 KB in Rechnung gestellt.

Prüfung und Transformation: sonstige Kosten und kostenlose Features

Zusätzlich zu den direkt für Sensitive Data Protection anfallenden Gebühren können bei Anfragen, durch die weitere Google Cloud-Produkte aufgerufen werden, zusätzliche Kosten entstehen. Für die projects.content.inspect-Methode können beispielsweise Cloud Storage-Kosten anfallen, wenn Cloud Storage-Objekte geprüft werden sollen.

Bei einigen Methoden können je nach Konfiguration Kosten für Prüfung, Transformation oder beides anfallen. Dies trifft auf die Methoden projects.content.deidentify und projects.content.reidentify zu, wenn beispielsweise eine Transformation, aber keine Prüfung konfiguriert ist. Dasselbe gilt für Transformationen, wenn nur eine Prüfung konfiguriert ist.

Einfache Entfernungen, zu denen die Transformationen RedactConfig und ReplaceWithInfoTypeConfig gehören, werden bei den transformierten Byte nicht berücksichtigt, wenn auch die infoType-Prüfung konfiguriert ist.

Prüfung und Transformation – Preisbeispiele

Dieser Abschnitt enthält mehrere beispielhafte Nutzungsszenarien für die Prüfung und Transformation mit den zugehörigen Preisberechnungen.

Szenario 1: Prüfung und Transformation mit Inhaltsmethoden

Angenommen, Sie haben etwas mehr als 10 GB strukturierte (tabellarische) Daten. Sie streamen diese an die DLP API und weisen Sensitive Data Protection in der Anfrage an, auf 50 verschiedene integrierte infoType-Detektoren zu prüfen und Übereinstimmungen mithilfe einer kryptografischen Tokenisierungstransformation zu de-identifizieren. Nach der De-Identifikation stellen Sie fest, dass Sensitive Data Protection etwa 20 % der Daten oder ungefähr 2 GB abgeglichen und transformiert hat.

Preis:

  • Prüfung: 10 GB Daten × 3,00 $ pro GB = 30,00 $
  • Transformation: 2 GB × 2,00 $ pro GB = 4,00 $
  • Gesamt: 34,00 $

Szenario 2: Nur Transformation mit Inhaltsmethoden

Angenommen, Sie haben eine 10 GB-Tabelle und möchten drei Spalten (user_id, email, phone_number) mithilfe einer kryptografischen Tokenisierungstransformation transformieren. Die drei Spalten repräsentieren ungefähr 30 % der Tabelle. Da Sie ganze zu transformierende Spalten angeben, ist keine Prüfung erforderlich.

Preis:

  • Prüfung: 0 GB Daten = 0,00 $
  • Transformation: 3 GB Daten × 2,00 $ pro GB = 6,00 $
  • Gesamt: 6,00 $

Szenario 3: Prüfung und Transformation unstrukturierter Daten mit Inhaltsmethoden

Angenommen, Sie haben 10 GB unstrukturierte Chatlogs. Diese möchten Sie prüfen und infoType-Ergebnisse de-identifizieren. Dazu müssen Sie sämtliche Daten prüfen und die Ergebnisse transformieren lassen. 20 % des gesamten Texts sind Ergebnisse.

Preis:

  • Prüfung: 10 GB Daten × 3,00 $ pro GB = 30,00 $
  • Transformation: 2 GB Daten × 2,00 $ pro GB = 4,00 $
  • Gesamt: 34,00 $

Szenario 4: Prüfung von Speicher-Repositories mit Speicherjobs

Angenommen, Sie haben 1.000 BigQuery-Tabellen, die Sie prüfen möchten. Jede Tabelle ist ungefähr 1 GB groß. Die Gesamtmenge der Daten beträgt also 1 TB. Da Sie nicht die gesamten Tabellen scannen möchten oder müssen, haben Sie Stichproben aktiviert, sodass nur 1.000 Zeilen jeder Tabelle gescannt werden. Jede Zeile ist ungefähr 10 KB groß.

Preis:

  • Zu prüfende Daten: 1.000 Tabellen × 1.000 Zeilen pro Tabelle × 10 KB pro Zeile = 10 GB insgesamt gescannt
  • Gesamt: 10 GB × 1,00 $ pro GB = 10,00 $

Szenario 5: Prüfung und Transformation von Speicher-Repositories mit Speicherjobs

Angenommen, Sie haben 5 GB strukturierte (tabellarische) und unstrukturierte Textdaten (in einem freien Format) in einem Cloud Storage-Bucket. Sie erstellen einen Inspektionsjob und weisen Sensitive Data Protection an, auf 25 verschiedene integrierte infoType-Detektoren zu prüfen und Übereinstimmungen mithilfe einer kryptografischen Tokenisierungstransformation zu de-identifizieren. Nach der De-Identifikation stellen Sie fest, dass Sensitive Data Protection etwa 25 % der Daten oder ungefähr 1,25 GB abgeglichen und transformiert hat.

Preis:

  • Prüfung: 5 GB Daten × 1,00 $ pro GB = 5,00 $
  • Transformation: 1,25 GB × 1,00 $ pro GB = 1,25 $
  • Gesamt: 6,25 $

Erkennung – Preise

In diesem Abschnitt werden die Kosten für das Erstellen von Datenprofilen erläutert. Datenprofile enthalten allgemeine Messwerte und Statistiken zu Ihren Daten. Informationen zu den Datentypen, für die der Discovery-Dienst Profile erstellen kann, finden Sie unter Unterstützte Ressourcen.

Sensitive Data Protection bietet für den Erkennungsdienst zwei verschiedene Abrechnungsmodi:

  • Abrechnung nach Verbrauch: Im Verbrauchsmodus gelten für Projekte oder Organisationen Preise pro GB basierend auf der Größe der im Profil erstellten Daten.
  • Abo mit festem Tarif: Bei diesem Modus legen Sie fest, wie viel Rechenzeit (Kapazität) für das Erstellen von Profilen reserviert werden soll. Die Profile werden innerhalb dieser Kapazität erstellt und Sie bezahlen kontinuierlich für jede Sekunde der Bereitstellung. Diese Kapazität steht Ihnen bis zur Kündigung Ihres Abos zur Verfügung. Bei diesem Abrechnungsmodus fallen keine Kosten pro Byte an.

    Der Abomodus bietet vorhersehbare und gleichbleibende Kosten, unabhängig vom Wachstum der Datenmenge.

Standardmäßig erfolgt die Abrechnung nach Verbrauch.

Preisvergleichstabelle für Discovery-Kampagnen

Die Preise für den Erkennungsdienst sehen so aus:

Preismodell Preisinformationen
Verbrauchsmodus
  • Erkennung für BigQuery
    • Ihnen werden pro GB an BigQuery-Daten, für die ein Profil erstellt wird, 0,03 $ in Rechnung gestellt. Die abrechenbaren Byte pro Tabelle entsprechen der Größe der Tabelle oder 3 TB, je nachdem, welcher Wert niedriger ist.
    • Jede BigLake-Tabelle, für die ein Profil erstellt wird, wird als 300 GB-Tabelle abgerechnet.
  • Discovery für Cloud SQL: Ihnen werden 0,03$pro GB Cloud SQL-Datenprofil berechnet, wobei mindestens 0,01$für jede Tabelle anfallen. Die abrechenbaren Byte pro Tabelle entsprechen der Größe der Tabelle oder 3 TB, je nachdem, welcher Wert niedriger ist.
  • Discovery für Cloud Storage und Amazon S3: Ihnen werden 0,03$pro GB gescannter Dateien berechnet. Die Gebühren pro Bucket sind auf Daten auf maximal 3 TB beschränkt. Wenn beispielsweise für zwei Buckets ein Profil erstellt wird, sind die Gebühren auf Daten auf maximal 6 TB begrenzt.

    Dateien, die der Schutz sensibler Daten nicht scannen konnte, z. B. beschädigte Dateien und passwortgeschützte Dateien, werden Ihnen nicht in Rechnung gestellt. Ihnen werden 0,03$für jeden leeren Bucket in Rechnung gestellt, der keine unterstützten Dateitypen enthält.

Abomodus
  • Ihnen werden pro Aboeinheit 2.500 $ in Rechnung gestellt.
  • Für jede Aboeinheit wird für etwa 10.000 Standardtabellen1 oder 2.000 BigLake-Tabellen oder 500 Dateispeicher2 oder eine Mischung dieser Datenassets3 ein Profil erstellt.

    Ein Abo gilt entweder für eine Organisation oder ein Projekt. Ein Abo auf Organisationsebene gilt nicht für eine Scankonfiguration auf Projektebene.

Hinweise zur Tabelle:

  1. BigQuery- oder Cloud SQL-Tabellen.

  2. Beim Schutz sensibler Daten wird der Begriff Dateispeicher für einen Dateispeicher-Bucket verwendet. Auch Buckets, die leer sind oder keine unterstützten Dateitypen enthalten, verbrauchen Kapazität. Für einen solchen Bucket nutzen Sie die entsprechende Kapazität von 0, 05 Buckets.

  3. Der tatsächliche Durchsatz variiert je nach Komplexität der Daten und Ressourcentypen. Weitere Informationen finden Sie unter Erkennung: Preise für den Abomodus.

Wenn Sie ein Profil für Cloud Storage-Daten erstellen, fallen unabhängig vom Preismodus Cloud Storage-Gebühren an. Weitere Informationen finden Sie auf dieser Seite unter Erkennung für Cloud Storage.

Wenn Sie ein Profil für Amazon S3-Daten erstellen, fallen unabhängig von Ihrem Preismodus AWS-Gebühren an. Weitere Informationen finden Sie unter Erkennung sensibler Daten für Amazon S3.

Erkennung: Kostenschätzung für Profilerstellung

Bevor Sie sich für einen Abrechnungsmodus für den Erkennungsdienst entscheiden, sollten Sie eine Schätzung vornehmen. So erfahren Sie, wie viele Daten Sie haben und wie viel es kosten könnte, im Verbrauchs‑ oder Abomodus ein Profil dieser Daten zu erstellen. Hier finden Sie weitere Informationen:

Erkennung: Abrechnung nach Verbrauch

Wenn Sie die Datenprofilerstellung konfigurieren, wird für alle Datenassets im Bereich der Erkennungsscankonfiguration ein Profil erstellt. Die Kosten werden zum aufgeführten Tarif berechnet. Beispiel: Eine Tabelle mit 10 GB kostet für ein Profil 0, 30 $.

Beispiele für die Abrechnung nach Verbrauch

Dieser Abschnitt enthält beispielhafte Nutzungsszenarien für die Datenprofilerstellung mit den zugehörigen Preisberechnungen.

Sie basieren auf der Standardhäufigkeit der Profilerstellung.

Szenario 1: Organisationsweite Datenprofilerstellung

Angenommen, Sie haben 10 TB Daten in Ihrer gesamten Organisation. Jeden Monat fügen Sie Folgendes hinzu:

  • 1 TB Daten in neuen Tabellen.
  • 1 TB Daten in neuen Spalten in vorhandenen Tabellen. So kommen 5 TB Daten in Tabellen mit Schemaänderungen zusammen.
1. Monat: Für alle Ihre Daten werden Profile erstellt
Daten Preis
Ausgangsdaten: Für 10 TB Daten werden Profile erstellt.
10.000 GB × 0,03 $
300,00 $
1 TB Daten wird im Laufe des Monats als neue Tabellen hinzugefügt (täglich abgerufen). Die Profilerstellung wird kurz nach dem Hinzufügen der neuen Tabellen gestartet.
1.000 GB × 0,03 $
30,00 $
5 TB Daten in Tabellen mit Schemaänderungen. Die Profilneuerstellung ist für den nächsten Monat geplant. 0 $
Summe 330,00 $
2. Monat: Für Tabellen mit Schemaänderungen wird ein neues Profil erstellt
Daten Preis
Ausgangsdaten: insgesamt 12 TB. Für 5 TB Daten ist aufgrund von Tabellen mit Schemaänderungen im letzten Monat eine Neuprofilerstellung geplant.
Wenn für eine Tabelle eine Neuprofilerstellung vorgesehen ist, betrifft dies die ganze Tabelle. Die gesamte Tabellengröße wird zur Abrechnung herangezogen.
5.000 GB × 0,03 $
150,00 $
1 TB Daten wird im Laufe des Monats als neue Tabellen hinzugefügt (täglich abgerufen). Die Profilerstellung wird kurz nach dem Hinzufügen der neuen Tabellen gestartet.
1.000 GB × 0,03 $
30,00 $
5 TB Daten in Tabellen mit Schemaänderungen. Die Profilneuerstellung ist für den nächsten Monat geplant. 0 $
Summe 180,00 $

Szenario 2: Organisationsweite Datenprofilerstellung mit statischem Datenschema

Angenommen, Sie haben 5 TB Daten in Ihrer gesamten Organisation. Jeden Monat fügen Sie 1 TB neuer Daten in neuen Tabellen hinzu. Die vorhandenen Tabellen weisen keine Schemaänderungen auf (keine neuen Spalten), aber zusätzliche Zeilen.

1. Monat: Für alle Ihre Daten werden Profile erstellt
Daten Preis
Ausgangsdaten: Für 5 TB Daten werden Profile erstellt.
5.000 GB × 0,03 $
150,00 $
1 TB Daten wird im Laufe des Monats als neue Tabellen hinzugefügt (täglich abgerufen). Die Profilerstellung wird kurz nach dem Hinzufügen der neuen Tabellen gestartet.
1.000 GB × 0,03 $
30,00 $
Summe 180,00 $
2. Monat: Nur für neue Tabellen werden Profile erstellt
Daten Preis
Statische Daten: 6 TB. Da die vorhandenen Tabellen unverändert sind, wird kein neuer Scan gestartet. 0 $
1 TB Daten wird im Laufe des Monats als neue Tabellen hinzugefügt (täglich abgerufen).
1.000 GB × 0,03 $
30,00 $
Summe 30,00 $

Erkennung: Abrechnung nach Abo

Eine Aboeinheit ist eine Reservierung von Rechenzeit (Kapazität), die Sensitive Data Protection nutzt, um ein Profil zu erstellen.

Profil für Daten-Assets pro Aboeinheit

Der Durchsatz der Profilgenerierung hängt von der Komplexität und der Art der Daten ab, für die ein Profil erstellt werden soll. Bestimmende Faktoren sind:

  • Vorhandensein großer benutzerdefinierter Wörterbücher (für Profilerstellung nicht empfohlen).
  • Tabellentyp. Eine BigLake-Tabelle erfordert fünfmal so viel Kapazität wie andere Tabellen.

In der folgenden Tabelle sehen Sie beispielhafte Durchsätze pro Aboeinheit.

Anzahl der Aboeinheiten Kosten pro Monat Ungefähre Anzahl der Profile pro Monat
1 Einheit 2.500 $ 10.000 Standardtabellen1 oder 2.000 BigLake-Tabellen oder 500 Dateispeicher2 oder eine Mischung dieser Daten-Assets
2 Einheiten 5.000 $ 20.000 Standardtabellen oder 4.000 BigLake-Tabellen oder 1.000 Dateispeicher oder eine Mischung dieser Daten-Assets
4 Einheiten 10.000 $ 40.000 Standardtabellen oder 8.000 BigLake-Tabellen oder 2.000 Dateispeicher oder eine Mischung dieser Daten-Assets,
20 Einheiten 50.000 $ 200.000 Standardtabellen oder 40.000 BigLake-Tabellen oder 10.000 Dateispeicher oder eine Mischung dieser Daten-Assets

1 BigQuery- oder Cloud SQL-Tabellen.

2 Beim Schutz sensibler Daten wird der Begriff Dateispeicher für einen Dateispeicher-Bucket verwendet. Auch Buckets, die leer sind oder keine unterstützten Dateitypen haben, verbrauchen Kapazität. Für einen solchen Bucket nutzen Sie die entsprechende Kapazität von 0, 05 Buckets.

Geltungsbereich des Abos

Ein Abo gilt entweder für eine Organisation oder ein Projekt. Ein Abo auf Organisationsebene gilt nicht für eine Scankonfiguration auf Projektebene.

Abolaufzeit

Der erste Abomonat läuft einen vollen Monat. Nach dem ersten Monat erfolgt die Abrechnung monatlich und Sie können das Abo jederzeit kündigen oder ändern.

  • Im ersten Monat ist es nicht möglich, die Anzahl der Aboeinheiten zu reduzieren oder diese zu löschen.
  • Nach dem ersten Monat können Sie Aboeinheiten jederzeit löschen oder ändern und Ihnen werden nur die Minuten in Rechnung gestellt, die Ihr Abo aktiv war.
  • Die Abrechnung erfolgt, solange Sie Ihr Abo nicht kündigen.

Beispiel

Angenommen, Sie haben am 5. Oktober um 6:00:00 Uhr eine Aboeinheit gekauft. In diesem Fall gilt Folgendes:

  • Ab diesem Zeitpunkt fallen Kosten an.
  • Sie können Ihr Abo erst am 4. November um 6:00:00 Uhr kündigen oder reduzieren.
  • Wenn Sie Ihr Abo am 5. November um 7:10:10 Uhr kündigen, werden ein Monat plus ein Tag, eine Stunde, zehn Minuten und zehn Sekunden abgerechnet (vom 5. Oktober, 6:00:00 Uhr, bis zum 5. November, 7:10:10 Uhr).

Ablauf der Abolaufzeit

Nach dem Ende der anfänglichen Abolaufzeit erfolgt die Abrechnung von Monat zu Monat und das Abo wird fortgesetzt.

Erwerb eines Abos

  1. Öffnen Sie in der Google Cloud Console die Seite Abos.

    Zu den Abos

  2. Wählen Sie das Projekt oder die Organisation aus, für das bzw. die Sie ein Abo erwerben möchten.

    Wenn Sie ein Abo auf Organisationsebene kaufen, gilt dieses nicht für Scankonfigurationen auf Projektebene. Ein Abo auf Projektebene gilt nur für dieses Projekt.

  3. Klicken Sie neben Preismodell auf Zum Abomodus wechseln.

  4. Folgen Sie der Anleitung zum Abschluss des Kaufs.

Zu geringe Kapazität

Wenn für das Erstellen eines Profils für ein Projekt, einen Ordner oder eine Organisation mehr Kapazität als derzeit vorhanden erforderlich ist, stellt Sensitive Data Protection die Aufgabe in die Warteschlange und wartet, bis die nötige Kapazität verfügbar ist. Wenn Fortschritte bei der Profilerstellung gemacht werden und Kapazität frei wird, werden die Aufgaben in der Warteschlange ausgeführt.

Falls der Kapazitätsbedarf für die Profilerstellung Ihr Abo übersteigt, wird Ihnen diese Überschreitung nicht in Rechnung gestellt. Die zusätzliche Kapazität wird also nicht nach Verbrauch abgerechnet. Die Ressourcen, für die ein Profil erstellt werden soll, werden in eine interne Warteschlange gestellt und verarbeitet, wenn die nötige Kapazität verfügbar ist.

Bei der Überlegung, wie viele Aboeinheiten Sie erwerben sollen, können Sie sich daher für eine eigentlich zu geringe Kapazität entscheiden, falls Sie bereit sind, auf die Profilerstellung zu warten. Sie können beispielsweise nur eine Aboeinheit kaufen, auch wenn sie aktuell mehr als 10.000 Tabellen haben.

Monitoring der Auslastung

Auf der Seite API/Dienstdetails für Sensitive Data Protection sehen Sie, wie viel Kapazität Ihres Abos Sie genutzt haben.

Pro Tag für Profilerstellung genutzte Kapazität

In diesem Beispiel hat der Kunde ein Abo der Größe 1 erworben. Sie haben die Kapazität, ein Profil für etwa 333 Standardtabellen oder 66 BigLake-Tabellen oder 16 Dateispeicher pro Tag zu erstellen. Diese Zahlen sind jedoch keine festen täglichen Limits. Wenn im Laufe des monatlichen Abos Ressourcen verfügbar werden, kann es zu Schwankungen in der Nutzung kommen.

Fehlerbehandlung

Es kann vorkommen, dass fehlerhafte Profile erstellt werden, die dennoch Kapazität verbrauchen. Die folgende Liste enthält einige Szenarien, bei denen dieses Problem auftreten kann. Es besteht kein Anspruch auf Vollständigkeit.

  • Die Daten-Assets, für die ein Profil erstellt werden soll, befinden sich innerhalb der Grenzen von VPC Service Controls.
  • Dem Dienst-Agent fehlen Identity and Access Management-Berechtigungen.
  • An der Konfiguration des Erkennungsscans oder den Inspektionsvorlagen wurden Konfigurationsänderungen vorgenommen.

Auch wenn diese Fehler auftreten, kann Kapazität verbraucht werden, weil das System trotzdem versucht, Profile zu erstellen. Sie erhalten ein Teilprofil mit Informationen dazu, warum Sensitive Data Protection kein vollständiges Profil erstellen konnte.

Erkennung für Cloud Storage

Dieser Abschnitt gilt für die Erstellung von Cloud Storage-Datenprofilen sowohl im Nutzungs- als auch im Abopreis. Einen Vergleich der beiden Preismodi finden Sie auf dieser Seite in der Vergleichstabelle für die Erkennung.

Vorgänge der Klasse A und B

Die Vorgänge der Klasse A und B, die Sensitive Data Protection beim Erstellen eines Profils für Ihre Buckets ausführt, werden Ihnen in Rechnung gestellt. Für den Schutz sensibler Daten werden die folgenden Vorgänge verwendet:

  • Klasse A: storage.objects.list
  • Klasse B: storage.buckets.get und storage.buckets.getIamPolicy

Informationen dazu, wie viel Cloud Storage für Vorgänge der Klasse A und Klasse B berechnet, finden Sie in der Cloud Storage-Dokumentation unter Vorgangsgebühren.

Abrufgebühren

Für Objekte, die eine andere Storage-Klasse als die Standardspeicherklasse haben, werden Ihnen Abrufgebühren berechnet. Informationen dazu, wie viel Cloud Storage für den Datenabruf in Rechnung stellt, finden Sie unter Abrufgebühren in der Cloud Storage-Dokumentation.

Erkennung: Zeitplan für die Profilerstellung

Informationen zum Standardzeitplan für die Profilerstellung finden Sie unter Häufigkeit der Datenprofilerstellung. Sie können den Zeitplan in Ihrer Scankonfiguration anpassen. Dies ist sowohl im Verbrauchs‑ als auch im Abomodus möglich.

Wenn Sie im Abomodus eine zu geringe Kapazität festgelegt haben, wird die Profilerstellung weniger häufig als gewünscht ausgeführt, da die Kapazität gleichmäßig auf die Ressourcen innerhalb des Projekts oder der Organisation verteilt wird, für das bzw. die ein Profil erstellt werden soll. Wenn Kapazität verfügbar wird, ruft Sensitive Data Protection Ressourcen, für die ein Profil erstellt werden soll, so aus der Warteschlange ab, dass ein maximaler Durchsatz erzielt wird.

Erkennung: Abrechnung und Kontingentverbrauch in BigQuery

Für das Erstellen von Profilen für BigQuery-Daten fallen keine Kosten in BigQuery an und das BigQuery-Kontingent bleibt davon unberührt. Wenn Sie die Datenprofile jedoch in eine BigQuery-Tabelle exportieren, fallen die üblichen BigQuery-Gebühren an und es wird das BigQuery-Kontingent dafür genutzt.

Erkennung: Preise für das Exportieren von Datenprofilen

Die folgende Tabelle enthält die Gebühren und den Kontingentverbrauch für die Nutzung anderer Google Cloud-Dienste beim Exportieren von Datenprofilen in diese Dienste. Zum Konfigurieren des Exports müssen Sie in Ihrer Discovery-Scan-Konfiguration bestimmte Aktionen aktivieren.

Aktion Kontingentverbrauch Gebühren
In Google Security Operations veröffentlichen Nicht zutreffend Je nach Vertrag können in Google SecOps Gebühren für Datenaufnahme oder ‑speicherung anfallen. Weitere Informationen erhalten Sie von Ihrem Google Cloud Account Manager.
In Security Command Center veröffentlichen Nicht zutreffend Je nach Dienststufe können Security Command Center-Gebühren anfallen.1
Datenprofilkopien in BigQuery speichern Verbraucht BigQuery-Kontingent im Dienst-Agent-Container2 oder dem Projekt3, für den bzw. das ein Profil erstellt werden soll Es fallen die üblichen BigQuery-Gebühren an. Diese werden dem Dienst-Agent-Container2 oder Projekt3, für den bzw. das ein Profil erstellt werden soll, zugeschrieben.
In Pub/Sub veröffentlichen Verbraucht Pub/Sub-Kontingent im Dienst-Agent-Container2 oder dem Projekt3, für den bzw. das ein Profil erstellt werden soll Es fallen die üblichen Pub/Sub-Gebühren an. Diese werden dem Dienst-Agent-Container2 oder Projekt3, für den bzw. das ein Profil erstellt werden soll, zugeschrieben.
Als Tags an Dataplex senden Nicht zutreffend In Dataplex fallen Gebühren für den Metadatenspeicher und API-Gebühren an.

1 Sensitive Data Protection funktioniert mit allen Dienststufen von Security Command Center.

2 Wenn Sie ein Profil für Daten auf Organisations- oder Ordnerebene erstellen, werden Gebühren und Kontingentnutzung auf den Dienst-Agent-Container angewendet.

3 Wenn Sie ein Datenprofil auf Projektebene erstellen, werden Gebühren und Kontingentnutzung auf das Projekt angewendet, für das ein Profil erstellt werden soll.

Risikoanalyse – Preise

Für Risikoanalysen werden BigQuery-Ressourcen eingesetzt. Daher wird die Nutzung von BigQuery in Rechnung gestellt. Durch Sensitive Data Protection entstehen für die Risikoanalyse keine weiteren Kosten.

Risikoanalysejobs werden mit der Methode projects.dlpJobs.create und den folgenden Konfigurationsobjekten erstellt:

Kosten kontrollieren

Falls Sie mit Sensitive Data Protection sehr große Datenmengen scannen, kann das mit hohen Kosten verbunden sein. Informationen zu Möglichkeiten, mit denen Sie die Kosten niedrig halten und gleichzeitig dafür sorgen können, dass mit Sensitive Data Protection nur die gewünschten Daten gescannt werden, finden Sie unter Kosten unter Kontrolle halten.

Weitere Informationen

Individuelles Angebot einholen

Mit den „Pay as you go“-Preisen von Google Cloud bezahlen Sie nur für die Dienste, die Sie nutzen. Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Vertrieb kontaktieren