Dataflow-Pipeline mit Python erstellen

In dieser Kurzanleitung erfahren Sie, wie Sie das Apache Beam SDK für Python verwenden, um ein Programm zu erstellen, das eine Pipeline definiert. Anschließend führen Sie die Pipeline mit einem direkten lokalen Runner oder einem cloudbasierten Runner wie Dataflow aus. Eine Einführung in die WordCount-Pipeline finden Sie im Video How to use WordCount in Apache Beam.


Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt in der Google Cloud Console aufzurufen.

Anleitung


Hinweise

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. Install the Google Cloud CLI.
  3. To initialize the gcloud CLI, run the following command:

    gcloud init
  4. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  5. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  6. Enable the Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, BigQuery, Cloud Pub/Sub, Cloud Datastore, and Cloud Resource Manager APIs:

    gcloud services enable dataflow compute_component logging storage_component storage_api bigquery pubsub datastore.googleapis.com cloudresourcemanager.googleapis.com
  7. Create local authentication credentials for your user account:

    gcloud auth application-default login
  8. Grant roles to your user account. Run the following command once for each of the following IAM roles: roles/iam.serviceAccountUser

    gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
    • Replace PROJECT_ID with your project ID.
    • Replace USER_IDENTIFIER with the identifier for your user account. For example, user:[email protected].

    • Replace ROLE with each individual role.
  9. Install the Google Cloud CLI.
  10. To initialize the gcloud CLI, run the following command:

    gcloud init
  11. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  12. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  13. Enable the Dataflow, Compute Engine, Cloud Logging, Cloud Storage, Google Cloud Storage JSON, BigQuery, Cloud Pub/Sub, Cloud Datastore, and Cloud Resource Manager APIs:

    gcloud services enable dataflow compute_component logging storage_component storage_api bigquery pubsub datastore.googleapis.com cloudresourcemanager.googleapis.com
  14. Create local authentication credentials for your user account:

    gcloud auth application-default login
  15. Grant roles to your user account. Run the following command once for each of the following IAM roles: roles/iam.serviceAccountUser

    gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
    • Replace PROJECT_ID with your project ID.
    • Replace USER_IDENTIFIER with the identifier for your user account. For example, user:[email protected].

    • Replace ROLE with each individual role.
  16. Weisen Sie Ihrem Compute Engine-Standarddienstkonto Rollen zu. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:

    • roles/dataflow.admin
    • roles/dataflow.worker
    • roles/storage.objectAdmin
    gcloud projects add-iam-policy-binding PROJECT_ID --member="serviceAccount:PROJECT_NUMBER[email protected]" --role=SERVICE_ACCOUNT_ROLE
    • Ersetzen Sie PROJECT_ID durch Ihre Projekt-ID.
    • Ersetzen Sie PROJECT_NUMBER durch die Projekt-ID. Ihre Projektnummer finden Sie unter Projekte identifizieren oder verwenden Sie den Befehl gcloud projects describe.
    • Ersetzen Sie SERVICE_ACCOUNT_ROLE durch jede einzelne Rolle.
  17. Create a Cloud Storage bucket and configure it as follows:
    • Set the storage class to S (Standard).
    • Legen Sie als Speicherort Folgendes fest: US (USA).
    • Ersetzen Sie BUCKET_NAME durch einen eindeutigen Bucket-Namen. Der Bucket-Name darf keine vertraulichen Informationen enthalten, da der Bucket-Namespace global und öffentlich sichtbar ist.
    • gcloud storage buckets create gs://BUCKET_NAME --default-storage-class STANDARD --location US
    • Kopieren Sie die Google Cloud-Projekt-ID und den Namen des Cloud Storage-Buckets. Sie benötigen diese Werte später in diesem Dokument.

Umgebung einrichten

In diesem Abschnitt richten Sie über die Eingabeaufforderung eine isolierte virtuelle Python-Umgebung ein, um Ihr Pipeline-Projekt mit venv auszuführen. Auf diese Weise können Sie die Abhängigkeiten eines Projekts von den Abhängigkeiten anderer Projekte isolieren.

Wenn Ihnen im Moment keine Eingabeaufforderung zur Verfügung steht, können Sie Cloud Shell verwenden. Der Paketmanager für Python 3 ist in Cloud Shell bereits installiert, sodass Sie mit dem Erstellen einer virtuellen Umgebung fortfahren können.

So installieren Sie Python und erstellen dann eine virtuelle Umgebung:

  1. Prüfen Sie, ob Python 3 und pip in Ihrem System ausgeführt werden:
    python --version
    python -m pip --version
    
  2. Installieren Sie gegebenenfalls Python 3 und richten Sie dann eine virtuelle Python-Umgebung ein. Folgen Sie dazu der Anleitung in den Abschnitten Python installieren und venv einrichten auf der Seite Python-Entwicklungsumgebung einrichten. Wenn Sie Python 3.10 oder höher verwenden, müssen Sie auch Dataflow Runner V2 aktivieren. Wenn Sie Runner V1 verwenden möchten, verwenden Sie Python 3.9 oder eine frühere Version.

Nachdem Sie die Kurzanleitung durchgearbeitet haben, können Sie die virtuelle Umgebung mit dem Befehl deactivate deaktivieren.

Apache Beam SDK abrufen

Das Apache Beam SDK ist ein Open-Source-Programmiermodell für Datenpipelines. Sie definieren eine Pipeline mit einem Apache Beam-Programm und wählen dann einen Runner wie Dataflow aus, um Ihre Pipeline auszuführen.

So laden Sie das Apache Beam SDK herunter und installieren es:

  1. Prüfen Sie, ob Sie sich in der virtuellen Python-Umgebung befinden, die Sie im vorherigen Abschnitt erstellt haben. Die Eingabeaufforderung beginnt mit <env_name>, wobei env_name der Name der virtuellen Umgebung ist.
  2. Installieren Sie den Paketstandard Python-Rad:
    pip install wheel
    
  3. Installieren Sie die neueste Version des Apache Beam SDK für Python:
  4. pip install 'apache-beam[gcp]'

    Verwenden Sie unter Microsoft Windows den folgenden Befehl:

    pip install apache-beam[gcp]

    Je nach Verbindung kann die Installation etwas dauern.

Pipeline lokal ausführen

Wenn Sie sehen möchten, wie eine Pipeline lokal ausgeführt wird, verwenden Sie ein fertiges Python-Modul für das Beispiel wordcount, das im Paket apache_beam enthalten ist.

Das Pipeline-Beispiel wordcount führt Folgendes aus:

  1. Sie nimmt eine Textdatei als Eingabe an.

    Sie finden die Textdatei in einem Cloud Storage-Bucket mit dem Ressourcennamen gs://dataflow-samples/shakespeare/kinglear.txt.

  2. Sie parst jede Zeile und unterteilt sie in Wörter.
  3. Sie misst die Häufigkeit der tokenisierten Wörter.

Führen Sie die folgenden Schritte aus, um die Pipeline wordcount lokal bereitzustellen:

  1. Führen Sie auf Ihrem lokalen Terminal das Beispiel wordcount aus:
    python -m apache_beam.examples.wordcount \
      --output outputs
  2. Sehen Sie sich die Ausgabe der Pipeline an:
    more outputs*
  3. Drücken Sie zum Beenden q.
Wenn Sie die Pipeline lokal ausführen, können Sie das Apache Beam-Programm testen und eventuelle Fehler beheben. Sie können den Quellcode von wordcount.py auf dem GitHub für Apache Beam ansehen.

Pipeline im Dataflow-Dienst ausführen

In diesem Abschnitt führen Sie die wordcount-Beispielpipeline aus dem Paket apache_beam im Dataflow-Dienst aus. In diesem Beispiel wird DataflowRunner als Parameter für --runner angegeben.
  • Pipeline ausführen:
    python -m apache_beam.examples.wordcount \
        --region DATAFLOW_REGION \
        --input gs://dataflow-samples/shakespeare/kinglear.txt \
        --output gs://BUCKET_NAME/results/outputs \
        --runner DataflowRunner \
        --project PROJECT_ID \
        --temp_location gs://BUCKET_NAME/tmp/

    Ersetzen Sie Folgendes:

    • DATAFLOW_REGION: die Region, in der Sie den Dataflow-Job bereitstellen möchten, z. B. europe-west1

      Das Flag --region überschreibt die Standardregion, die auf dem Metadatenserver, auf Ihrem lokalen Client oder in Umgebungsvariablen festgelegt ist.

    • BUCKET_NAME: den Namen des Cloud Storage-Buckets, den Sie zuvor kopiert haben
    • PROJECT_ID: Google Cloud-Projekt-ID, die Sie zuvor kopiert haben.

Ergebnisse ansehen

Wenn Sie eine Pipeline mit Dataflow ausführen, werden die Ergebnisse in einem Cloud Storage-Bucket gespeichert. Prüfen Sie in diesem Abschnitt, ob die Pipeline mit der Cloud Console oder dem lokalen Terminal ausgeführt wird.

Google Cloud Console

So rufen Sie Ihre Ergebnisse in der Cloud Console auf:

  1. Rufen Sie in der Google Cloud Console die Dataflow-Seite Jobs auf.

    Zu Jobs

    Auf der Seite Jobs werden Details zum wordcount-Job angezeigt, z. B. der Status Aktiv und dann Erfolgreich.

  2. Rufen Sie die Seite Cloud Storage-Buckets auf:

    Buckets aufrufen

  3. Klicken Sie in der Liste der Buckets in Ihrem Projekt auf den Storage-Bucket, den Sie zuvor erstellt haben.

    Im Verzeichnis wordcount werden die von Ihrem Job erstellten Ausgabedateien angezeigt.

Lokales Terminal

Sehen Sie sich die Ergebnisse über Ihr Terminal oder mithilfe von Cloud Shell an.

  1. Verwenden Sie den Befehl gcloud storage ls, um die Ausgabedateien aufzulisten:
    gcloud storage ls gs://BUCKET_NAME/results/outputs* --long
  2. Ersetzen Sie BUCKET_NAME durch den Namen des Cloud Pipeline-Buckets, der im Pipelineprogramm verwendet wird.

  3. Verwenden Sie den Befehl gcloud storage cat, um die Ergebnisse in den Ausgabedateien aufzurufen:
    gcloud storage cat gs://BUCKET_NAME/results/outputs*

Pipelinecode ändern

Die wordcount-Pipeline in den vorherigen Beispielen unterscheidet zwischen groß- und kleingeschriebenen Wörtern. In den folgenden Schritten wird gezeigt, wie Sie die Pipeline so ändern, dass die Groß- und Kleinschreibung bei der wordcount-Pipeline nicht berücksichtigt wird.
  1. Laden Sie auf Ihrem lokalen Computer die neueste Kopie des wordcount-Codes aus dem Apache Beam GitHub-Repository herunter.
  2. Führen Sie die Pipeline über das lokale Terminal aus:
    python wordcount.py --output outputs
  3. Ergebnisse aufrufen:
    more outputs*
  4. Drücken Sie zum Beenden q.
  5. Öffnen Sie die Datei wordcount.py in einem Editor Ihrer Wahl.
  6. Sehen Sie sich die Pipelineschritte in der Funktion run an:
    counts = (
            lines
            | 'Split' >> (beam.ParDo(WordExtractingDoFn()).with_output_types(str))
            | 'PairWithOne' >> beam.Map(lambda x: (x, 1))
            | 'GroupAndSum' >> beam.CombinePerKey(sum))

    Nach split werden die Zeilen in Wörter als Strings unterteilt.

  7. Wenn Sie die Strings in Kleinbuchstaben darstellen möchten, ändern Sie die Zeile nach split:
    counts = (
            lines
            | 'Split' >> (beam.ParDo(WordExtractingDoFn()).with_output_types(str))
            | 'lowercase' >> beam.Map(str.lower)
            | 'PairWithOne' >> beam.Map(lambda x: (x, 1))
            | 'GroupAndSum' >> beam.CombinePerKey(sum)) 
    Durch diese Änderung wird jedem Wort die Funktion str.lower zugeordnet. Diese Zeile entspricht beam.Map(lambda word: str.lower(word)).
  8. Speichern Sie die Datei und führen Sie den geänderten Job wordcount aus:
    python wordcount.py --output outputs
  9. Sehen Sie sich die Ergebnisse der geänderten Pipeline an:
    more outputs*
  10. Drücken Sie zum Beenden q.
  11. Die geänderte Pipeline im Dataflow-Dienst ausführen:
    python wordcount.py \
        --region DATAFLOW_REGION \
        --input gs://dataflow-samples/shakespeare/kinglear.txt \
        --output gs://BUCKET_NAME/results/outputs \
        --runner DataflowRunner \
        --project PROJECT_ID \
        --temp_location gs://BUCKET_NAME/tmp/

    Ersetzen Sie Folgendes:

    • DATAFLOW_REGION: die Region, in der Sie den Dataflow-Job bereitstellen möchten
    • BUCKET_NAME: Name Ihres Cloud Storage-Buckets.
    • PROJECT_ID: Ihre Google Cloud-Projekt-ID

Bereinigen

Löschen Sie das Google Cloud-Projekt mit den Ressourcen, damit Ihrem Google Cloud-Konto die auf dieser Seite verwendeten Ressourcen nicht in Rechnung gestellt werden.

  1. In the Google Cloud console, go to the Cloud Storage Buckets page.

    Go to Buckets

  2. Click the checkbox for the bucket that you want to delete.
  3. To delete the bucket, click Delete, and then follow the instructions.
  4. Wenn Sie Ihr Projekt beibehalten, widerrufen Sie die Rollen, die Sie dem Compute Engine-Standarddienstkonto zugewiesen haben. Führen Sie den folgenden Befehl für jede der folgenden IAM-Rollen einmal aus:

    • roles/dataflow.admin
    • roles/dataflow.worker
    • roles/storage.objectAdmin
    gcloud projects remove-iam-policy-binding PROJECT_ID \
        --member=serviceAccount:PROJECT_NUMBER[email protected] \
        --role=SERVICE_ACCOUNT_ROLE
  5. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

    gcloud auth application-default revoke
  6. Optional: Revoke credentials from the gcloud CLI.

    gcloud auth revoke

Nächste Schritte