Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow.
Attributes | Values |
---|
rdf:type
| |
rdfs:label
| - Apache Beam (en)
- Apache Beam (fr)
- Apache Beam (ja)
- Apache Beam (zh)
|
rdfs:comment
| - Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow. (en)
- Apache Beam est un modèle de programmation unifiée open source pour définir et exécuter des flux de données, y compris ETL, traitement par lot et en flux (en continu). Les flux Beam sont définis à l'aide des SDKs et exécutés dans l'un des runners supportés par Beam (back-ends de traitement distribués), y compris Apache Flink, Apache Apex, Apache Samza, Apache Spark et Google Cloud Dataflow. Il a été appelé uber-API pour le big data. (fr)
- Apache Beamは、ETL、バッチおよびストリーム処理を含むデータ処理を定義・実行するためのオープンソースの統合プログラミングモデルである。提供されているSDKの1つを使用してBeam Pipelinesと呼ばれるデータ処理パイプラインを定義し、、、Apache Spark、などのBeamがサポートするRunner(分散処理バックエンド)の1つを使用してパイプラインを実行する。 (ja)
- Apache Beam是一个开源统一编程模型,用于定义和执行数据处理管道,包括ETL、批处理和流(连续)处理。 Beam流水线是使用提供的SDK之一定义的,并在Beam支持的一个运行器(分布式处理后端)中执行,包括、Apache Flink、Apache Gearpump(孵化中)、、Apache Spark和Google Cloud Dataflow。 它被称为“大数据的超级API”。 (zh)
|
foaf:name
| |
foaf:homepage
| |
name
| |
foaf:depiction
| |
dcterms:subject
| |
Wikipage page ID
| |
Wikipage revision ID
| |
Link from a Wikipage to another Wikipage
| |
Link from a Wikipage to an external page
| |
sameAs
| |
dbp:wikiPageUsesTemplate
| |
thumbnail
| |
author
| |
caption
| |
developer
| |
license
| |
logo
| - Apache Beam logo .svg (en)
|
operating system
| |
programming language
| |
released
| |
repo
| |
website
| |
has abstract
| - Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow. (en)
- Apache Beam est un modèle de programmation unifiée open source pour définir et exécuter des flux de données, y compris ETL, traitement par lot et en flux (en continu). Les flux Beam sont définis à l'aide des SDKs et exécutés dans l'un des runners supportés par Beam (back-ends de traitement distribués), y compris Apache Flink, Apache Apex, Apache Samza, Apache Spark et Google Cloud Dataflow. Il a été appelé uber-API pour le big data. (fr)
- Apache Beamは、ETL、バッチおよびストリーム処理を含むデータ処理を定義・実行するためのオープンソースの統合プログラミングモデルである。提供されているSDKの1つを使用してBeam Pipelinesと呼ばれるデータ処理パイプラインを定義し、、、Apache Spark、などのBeamがサポートするRunner(分散処理バックエンド)の1つを使用してパイプラインを実行する。 (ja)
- Apache Beam是一个开源统一编程模型,用于定义和执行数据处理管道,包括ETL、批处理和流(连续)处理。 Beam流水线是使用提供的SDK之一定义的,并在Beam支持的一个运行器(分布式处理后端)中执行,包括、Apache Flink、Apache Gearpump(孵化中)、、Apache Spark和Google Cloud Dataflow。 它被称为“大数据的超级API”。 (zh)
|
prov:wasDerivedFrom
| |
page length (characters) of wiki page
| |
release date
| |
author
| |
developer
| |
license
| |
operating system
| |
programming language
| |