About: Apache Beam     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : wikidata:Q7397, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FApache_Beam&invfp=IFP_OFF&sas=SAME_AS_OFF

Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow.

AttributesValues
rdf:type
rdfs:label
  • Apache Beam (en)
  • Apache Beam (fr)
  • Apache Beam (ja)
  • Apache Beam (zh)
rdfs:comment
  • Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow. (en)
  • Apache Beam est un modèle de programmation unifiée open source pour définir et exécuter des flux de données, y compris ETL, traitement par lot et en flux (en continu). Les flux Beam sont définis à l'aide des SDKs et exécutés dans l'un des runners supportés par Beam (back-ends de traitement distribués), y compris Apache Flink, Apache Apex, Apache Samza, Apache Spark et Google Cloud Dataflow. Il a été appelé uber-API pour le big data. (fr)
  • Apache Beamは、ETL、バッチおよびストリーム処理を含むデータ処理を定義・実行するためのオープンソースの統合プログラミングモデルである。提供されているSDKの1つを使用してBeam Pipelinesと呼ばれるデータ処理パイプラインを定義し、、、Apache Spark、などのBeamがサポートするRunner(分散処理バックエンド)の1つを使用してパイプラインを実行する。 (ja)
  • Apache Beam是一个开源统一编程模型,用于定义和执行数据处理管道,包括ETL、批处理和流(连续)处理。 Beam流水线是使用提供的SDK之一定义的,并在Beam支持的一个运行器(分布式处理后端)中执行,包括、Apache Flink、Apache Gearpump(孵化中)、、Apache Spark和Google Cloud Dataflow。 它被称为“大数据的超级API”。 (zh)
foaf:name
  • Apache Beam (en)
foaf:homepage
name
  • Apache Beam (en)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Apache_Beam_logo_(3_color,_wordmark_right).svg
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
thumbnail
author
caption
  • Logo since 2016 (en)
developer
license
logo
  • Apache Beam logo .svg (en)
operating system
programming language
released
repo
website
has abstract
  • Apache Beam is an open source unified programming model to define and execute data processing pipelines, including ETL, batch and stream (continuous) processing. Beam Pipelines are defined using one of the provided SDKs and executed in one of the Beam’s supported runners (distributed processing back-ends) including Apache Flink, Apache Samza, Apache Spark, and Google Cloud Dataflow. (en)
  • Apache Beam est un modèle de programmation unifiée open source pour définir et exécuter des flux de données, y compris ETL, traitement par lot et en flux (en continu). Les flux Beam sont définis à l'aide des SDKs et exécutés dans l'un des runners supportés par Beam (back-ends de traitement distribués), y compris Apache Flink, Apache Apex, Apache Samza, Apache Spark et Google Cloud Dataflow. Il a été appelé uber-API pour le big data. (fr)
  • Apache Beamは、ETL、バッチおよびストリーム処理を含むデータ処理を定義・実行するためのオープンソースの統合プログラミングモデルである。提供されているSDKの1つを使用してBeam Pipelinesと呼ばれるデータ処理パイプラインを定義し、、、Apache Spark、などのBeamがサポートするRunner(分散処理バックエンド)の1つを使用してパイプラインを実行する。 (ja)
  • Apache Beam是一个开源统一编程模型,用于定义和执行数据处理管道,包括ETL、批处理和流(连续)处理。 Beam流水线是使用提供的SDK之一定义的,并在Beam支持的一个运行器(分布式处理后端)中执行,包括、Apache Flink、Apache Gearpump(孵化中)、、Apache Spark和Google Cloud Dataflow。 它被称为“大数据的超级API”。 (zh)
prov:wasDerivedFrom
page length (characters) of wiki page
release date
author
developer
license
operating system
programming language
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 67 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software