INDÚSTRIA .


O Apache Spark é uma ferramenta Big Data que tem o objetivo de processar grandes conjuntos de dados de forma paralela e distribuída. Ela estende o modelo de programação MapReduce popularizado pelo Apache Hadoop, facilitando bastante o desenvolvimento de aplicações de processamento de grandes volumes de dados.

Disponível em: < https://www.devmedia.com.br/introducao-ao-apache-spark/34178>

Acesso em 28/05/2021

Um aspecto importante é que o Spark permite a programação em:




  • Somente a linguagem Python

  • Somente a linguagem SQL

  • Nenhuma das alternativas está correta.

  • Permite as três linguagens Java, Python e SQL

  • Somente a linguagem Java