Apache Spark & Scala Tutorial
O que é o Apache Spark?
Apache Spark é uma estrutura de computação de cluster de código aberto que foi inicialmente desenvolvida na UC Berkeley no AMPLab.
em comparação com o MapReduce de Hadoop baseado em disco, Spark fornece um desempenho 100 vezes mais rápido para algumas aplicações com primitivas na memória.
Isto torna-o adequado para algoritmos de aprendizagem de máquinas, uma vez que permite aos programas carregar dados na memória de um cluster e consultar os dados constantemente.
Um Projecto Spark contém vários componentes, tais como núcleo de Spark e conjuntos de dados distribuídos resilientes ou RDDs, Spark SQL, Spark Streaming, Machine Learning Library ou Mllib, e GraphX.
na próxima seção do tutorial Apache Spark e Scala, vamos falar sobre o que é o Apache Spark.o que é o Apache Scala?Scala é uma linguagem de programação moderna e multi-paradigmática. Foi projetado para expressar padrões gerais de programação de uma forma elegante, precisa e segura de tipo. Uma das características principais é que ele integra as características de ambas as linguagens orientadas a objetos e funcionais sem problemas.
é uma linguagem puramente orientada a objetos, como todo valor nela é um objeto. O comportamento e os tipos dos objetos são explicados através de traços e classes.
é também uma linguagem funcional, pois cada função nela é um valor. Ao fornecer uma sintaxe leve para definir funções anônimas, ele fornece suporte para funções de ordem superior.
além disso, a linguagem também permite que as funções sejam aninhadas e fornece suporte para o transporte. Ele também tem características como classes de casos e padrão de correspondência modelo de suporte de tipos algébricos.
Scala é estaticamente tipado, sendo capacitado com um sistema de tipo expressivo. O sistema impõe o uso de abstrações de forma coerente e segura. Para ser particular, este sistema suporta várias características como anotações, classes, vistas, métodos polimórficos, tipos compostos, auto-referências explicitamente tipadas e limites do tipo superior e inferior.
Quando se trata de desenvolver aplicações específicas de domínio, ele geralmente precisa de extensões de linguagem específicas de domínio. Scala, sendo extensível, fornece uma combinação excepcional de mecanismos de linguagem. Devido a isso, torna-se fácil adicionar novas construções de linguagem como bibliotecas
Na próxima seção do Apache Faísca e Scala tutorial, vamos discutir os benefícios do Apache Faísca e Scala yo profissionais e organizações.
benefícios da faísca Apache e Scala para profissionais e organizações
a seguir estão os benefícios da faísca Apache e Scala
-
Fornece altamente confiável rápido em computação de memória.
-
eficiente em consultas interativas e algoritmo iterativo.
-
capacidades de tolerância de falhas por causa da abstração primária imutável chamada RDD.
-
inbuilt machine learning libraries.
-
Fornece plataforma de processamento para streaming de dados usando streaming de faísca.
-
altamente eficiente em análise em tempo real usando spark streaming e spark sql.
-
Graphx libraries on top of spark core for graphical observations.
-
compatibilidade com qualquer api JAVA, SCALA, PYTHON, R torna a programação fácil.
na próxima seção do tutorial Apache Spark e Scala, discutiremos os pré-requisitos de Apache spark e scala.
Apache Faísca e Scala Tutorial pré-Requisitos
O pré-requisito básico do Apache Faísca e Scala Tutorial é um conhecimento fundamental de qualquer linguagem de programação é um pré-requisito para a iniciação. Espera-se que os participantes tenham compreensão básica de qualquer banco de dados, SQL e linguagem de consulta para Bancos de dados. O conhecimento funcional de sistemas baseados em Linux ou Unix, embora não obrigatório, é uma vantagem adicional para este tutorial.vamos explorar o público alvo do Tutorial Apache Spark e Scala na próxima seção.interessado em aprender mais sobre Apache Spark& Scala? Inscreva-se no nosso curso de Apache hoje!
público-alvo do Apache Spark e do Tutorial Scala
o tutorial destina-se a profissionais que aspiram a uma carreira em campos crescentes e exigentes de análise de dados em tempo real. Profissionais de análise, profissionais de pesquisa, desenvolvedores de TI, Testadores, analistas de dados, cientistas de dados, profissionais de BI e relatórios, e gestores de projetos são os principais beneficiários deste tutorial. Outros aspirantes e estudantes, que desejam obter uma compreensão completa da faísca Apache também podem se beneficiar deste tutorial.
vamos explorar o Apache Spark e Scala Tutorial Overview na próxima seção.
Apache Spark and Scala Tutorial Overview
the Apache Spark and Scala training tutorial offered by Simplilearn provides details on the fundamentals of real-time analytics and need of distributed computing platform.
Este tutorial irá:
-
explicar Scala e suas características.aumenta o teu conhecimento da arquitectura da centelha Apache.
-
explique o processo de instalação e execução de aplicações usando o Apache Spark.aumente o seu conhecimento sobre a realização de SQL, streaming e processamento em lote.
-
explicar a aprendizagem de máquinas e a análise de Grafos nos dados do Hadoop.
na próxima secção, discutiremos os objectivos do tutorial Apache Spark e Scala.
objectivos
após completar este tutorial, poderá:
-
Explicar o processo para instalar o Faísca
-
Descrever as características de Scala
-
Discutir como usar o RDD para a criação de aplicações em Faísca
-
Explicam como executar consultas SQL utilizando SparkSQL
-
Discutir as características do Faísca de Transmissão
-
Explicar as características de Ignição ML de Programação
-
Descrever as características de GraphX de Programação
Vamos explorar as lições coberto no Apache Faísca e Scala Tutorial na próxima seção.
Lições abordadas neste Apache Faísca e Scala Tutorial
Há sete lições abordadas neste tutorial. Dê uma olhada na lição de nomes que são listados abaixo
Lição Não |
Nome do Capítulo |
o Que Você vai Aprender |
Aula 1 |
Introdução a Faísca Tutorial |
neste capítulo, você será capaz de:
|
Lição 2 |
Introdução à Programação em Scala Tutorial |
neste capítulo, você será capaz de:
|
Aula 4 |
Execução de Consultas SQL usando o Spark SQL Tutorial |
neste capítulo, você vai ser capaz de:
|
Lição 5 |
Faísca de Streaming Tutorial |
neste capítulo, você vai ser capaz de:
|
Lição 6 |
Faísca ML de Programação Tutorial |
neste capítulo, você será capaz de:
|
Conclusão
Com isso, chegamos ao fim sobre o que esta Apache Faísca e Scala tutorial incluir. No próximo capítulo, discutiremos Uma Introdução ao tutorial Spark.
{{lectureCoursePreviewTitle}} Visualizar Transcrição Assista ao Vídeo
Para saber mais, fazer o Curso
Apache Faísca e Scala de Treinamento de Certificação
Ir para o Curso
Para saber mais, tirar o Curso
Apache Faísca e Scala de Treinamento de Certificação Ir para o Curso
Leave a Reply