INDÚSTRIA .
O Apache Spark é uma ferramenta Big Data que tem o objetivo de processar grandes conjuntos de dados de forma paralela e distribuída. Ela estende o modelo de programação MapReduce popularizado pelo Apache Hadoop, facilitando bastante o desenvolvimento de aplicações de processamento de grandes volumes de dados.
Disponível em: < https://www.devmedia.com.br/introducao-ao-apache-spark/34178>
Acesso em 28/05/2021
Um aspecto importante é que o Spark permite a programação em: